
LLM
牛右刀薛面
Know-what and Know-how
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
麒麟操作系统,DrvMngGetConsoleLogLevel failed. (g_conLogLevel=3) dcmi module initialize failed. ret is -800
去网上搜了可能是和内核版本有关系,于是把内核版本改回原版就好了。原创 2024-11-27 00:32:13 · 1270 阅读 · 0 评论 -
记录一次nvcc问题。
能够看到cuda是12.0版本,但是使用。就是我明明已经安装好了cuda,使用。看不了cuda版本。执行一下两句命令即可。原创 2024-11-14 19:21:12 · 342 阅读 · 0 评论 -
麒麟V10,arm64,离线安装docker和docker-compose
需要在离线环境的系统了里面安装docker。目前国产化主推的是麒麟os和鲲鹏的cpu,这块的教程还比较少,记录一下。原创 2024-11-13 17:43:18 · 1584 阅读 · 0 评论 -
vllm加载模型会让大模型变笨?真的是一记大雷!
事情是这样的,因为实验要用一堆模型来跑,都说vllm加载模型能加快推理嘛,于是我所有的实验都用vllm加载了,实验结果吧不能说好坏,只能说有很多不合理的地方!最终通过不断的重跑,表格也还行。。。勉强能看。今天用vllm加载codellama-34b-instrcut发现vllm没法自动多卡加载,于是换回去transformers加载,发现codellama-34b效果非常令人满意!于是我又试了试7b、8b、13b、14b之前用过的模型,竟然都提升了很多!后来发现可能是vllm的模版加载的问题。。。。原创 2024-11-08 15:47:17 · 364 阅读 · 0 评论 -
终于有了!!!基于Langgraph使用本地LLM搭建agent!!!
Langchain是使用闭源LLM实现agent搭建的,Langgraph官网给的例子是基于Claude,其他一些agent例子也是基于OPENAI的,但是对于很多私有化场景,使用本地LLM搭建agent是非常重要的。但是网上并没有相关的教程,捣鼓了两天,捣鼓出来Ollama+Langgraph实现的基于本地LLM的agent搭建。原创 2024-10-29 19:25:00 · 705 阅读 · 0 评论 -
Ollama Docker安装
操作系统:Linux。原创 2024-10-29 15:10:54 · 1006 阅读 · 0 评论 -
launcher.py: error: the following arguments are required: --output_dir
记录一个LLaMA-Factroy配置过程。原创 2024-10-04 10:00:43 · 709 阅读 · 0 评论 -
在Langchain中使用ConversationSummaryMemory给链增加记忆
刚接触Langchain,整体感觉下来就是langchain中的事件顺序都是按照一定的套路来实现,例如常见的链LLMChain,需要使用到的大模型LLM和Langchain自带的PromptTemplate两块来实现,要求PromptTemplate有预留好下一步插入的内容。但是有可能考虑到使用ConversationChain时会导致输入的内容超过模型输入的上下文,所以适用了ConversationSummaryMemory,就是让模型自己对过去的对话进行总结,但是这种方式可能会丢失一定的关键信息。原创 2024-04-26 14:05:44 · 488 阅读 · 0 评论