自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 RAG+Agent 实战 llama-index+ollama 本地环境构建rag、agent

设置嵌入模型和语言模型Settings.embed_model = OllamaEmbedding(model_name="yxl/m3e:latest") # 使用指定的嵌入模型Settings.llm = Ollama(model="qwen2.5:7b", request_timeout=360) # 使用指定的语言模型# 初始化 Chroma 客户端,指定数据存储路径为当前目录下的 chroma_db 文件夹。

2024-10-05 19:48:20 3407 1

原创 vllm实战:简易部署glm-4-9b-chat

max_model_len(最大长度), tp_size(显卡数量) = 8192, 1。本次测试选用阿里云dsw a10 24g。本次测试选择glm4。

2024-10-04 13:32:44 1001

原创 ollama实战(二): gguf 格式部署及转换方式(llamacpp)

对于gguf格式(加载快),使用llamacpp进行量化,适合自己微调的模型量化后或者格式转化后再使用ollama部署。

2024-10-01 18:26:22 1767 1

原创 ollama实战(一) :部署自己的模型(Safetensors格式)

对于llama-chinese-8b进行ollama环境创建 Safetensors格式(这个格式推理比较慢)注:8b模型(safetensors)创建过程约会消耗60g内存。注:大约占16个g显存,gguf格式约占6个g。文件内容(即你的模型路径)file 及你创建的文件名。

2024-10-01 18:23:25 10541

原创 llama-factory实战: 基于qwen2.5-7b 手把手实战 自定义数据集清洗 微调

准备工作1.数据集准备(例:民法典.txt)2.服务器准备(阿里云 DSW 白嫖)3.环境配置pip 升级模型下载微调助手4.数据集处理脚本文件4.1文本分割(bert-base-chinese)4.2数据集生成4.3.1数据集转换(只有一个数据集)alpaca格式4.3.2训练集验证集划分(两个数据集)alpaca格式5.开始微调5.1配置文件修改5.2进入微调ui5.3修改参数即可训练5.4训练结果6.测试评估7.模型对话8.模型合并9.模型量化。

2024-09-29 15:25:18 12779 10

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除