【大模型】DeepSeek-R1-Distill-Qwen使用Langchain网页部署

在这里插入图片描述

DeepSeek-R1-Distill-Qwen 是由中国人工智能公司深度求索(DeepSeek)开发的轻量化大语言模型,基于阿里巴巴的Qwen系列模型通过知识蒸馏技术优化而来。当前模型开源后,我们可以将其部署,使用API方式进行本地调用

1.部署环境

本文中的部署基础环境如下所示:

PyTorch  2.5.1
Python  3.12(ubuntu22.04)
Cuda  12.4
GPU RTX 3090(24GB) * 1
CPU 14 vCPU Intel(R) Xeon(R) Platinum 8362 CPU @ 2.80GHz

2.依赖安装

# 升级 pip
python -m pip install --upgrade pip
# 更换 pypi 源加速库的安装
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

pip install transformers==4.48.2
pip install accelerate==1.3.0
pip install modelscope==1.22.3
pip install streamlit==1.41.1

3.模型下载

使用 modelscope 中的 snapshot_download 函数下载模型,第一个参数为模型名称,参数 cache_dir 为模型的下载路径,这里放在autodl的数据文件夹中比较合适。
在这里插入图片描述

4.代码准备

from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
import streamlit as st
import re

with st.sidebar:
    st.markdown("## DeepSeek-R1-Distill-Qwen-7B LLM")
    max_length = st.slider("max_length", 0, 8192, 8192, step=1)

st.title("DeepSeek R1 Distill Chatbot")
st.caption("A streamlit chatbot powered by Self-LLM")

mode_name_or_path = '/root/autodl-tmp/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B'

def split_text(text):
    pattern = re.compile(r'<think>(.*?)</think>(.*)', re.DOTALL)
    match = pattern.search(text)
    if match:
        return match.group(1).strip(), match.group(2).strip()
    return "", text.strip()

@st.cache_resource
def get_model():
    tokenizer = AutoTokenizer.from_pretrained(mode_name_or_path, trust_remote_code=True)
    tokenizer.pad_token = tokenizer.eos_token
    model = AutoModelForCausalLM.from_pretrained(
        mode_name_or_path, torch_dtype=torch.bfloat16, device_map="auto"
    )
    return tokenizer, model

tokenizer, model = get_model()

if "messages" not in st.session_state:
    st.session_state["messages"] = [{"role": "assistant", "content": "需要做啥?"}]

for msg in st.session_state.messages:
    st.chat_message(msg["role"]).write(msg["content"])

if prompt := st.chat_input():
    st.chat_message("user").write(prompt)
    st.session_state.messages.append({"role": "user", "content": prompt})

    input_ids = tokenizer.apply_chat_template(
        st.session_state.messages, tokenize=False, add_generation_prompt=True
    )
    model_inputs = tokenizer([input_ids], return_tensors="pt").to('cuda')
    generated_ids = model.generate(model_inputs.input_ids, max_new_tokens=max_length)
    generated_ids = [
        output_ids[len(input_ids):]
        for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
    ]
    response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
    think_content, answer_content = split_text(response)
    
    st.session_state.messages.append({"role": "assistant", "content": response})
    with st.expander("模型思考过程"):
        st.write(think_content)
    st.chat_message("assistant").write(answer_content)

下面将代码拆分为几个部分,每个部分附上核心代码及功能介绍,以及对应的效果说明。

1. 侧边栏设置

代码片段:

with st.sidebar:
    st.markdown("## DeepSeek-R1-Distill-Qwen-7B LLM")
    max_length = st.slider("max_length", 0, 8192, 8192, step=1)

功能介绍:

  • 在侧边栏中展示标题
  • 通过滑块让用户选择生成文本时的最大 token 数,默认值设为 8192。
    代码效果:
    用户在侧边栏可以直观地看到大模型标题、参考链接以及调整生成长度的滑块。

2. 主界面标题与说明

代码片段:

st.title("DeepSeek R1 Distill Chatbot")
st.caption("A streamlit chatbot powered by Self-LLM")

功能介绍:

  • 设置页面主标题和副标题,为用户展示聊天机器人的名称和简介。
    代码效果:
    页面顶部显示醒目的标题和简洁的说明,营造聊天机器人的整体界面氛围。

3. 模型加载与缓存

代码片段:

mode_name_or_path = '/root/autodl-tmp/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B'

@st.cache_resource
def get_model():
    tokenizer = AutoTokenizer.from_pretrained(mode_name_or_path, trust_remote_code=True)
    tokenizer.pad_token = tokenizer.eos_token
    model = AutoModelForCausalLM.from_pretrained(
        mode_name_or_path, torch_dtype=torch.bfloat16, device_map="auto"
    )
    return tokenizer, model

tokenizer, model = get_model()

功能介绍:

  • 定义模型路径,并通过 get_model 函数加载预训练的 tokenizer 和模型。
  • 使用 st.cache_resource 进行缓存,避免重复加载,提高运行效率。
  • 设置 tokenizer 的 pad token 为 eos_token,保证模型输入的一致性。
    代码效果:
    在首次运行时加载模型和 tokenizer,后续使用缓存内容,加快响应速度。

4. 聊天历史初始化与展示

代码片段:

if "messages" not in st.session_state:
    st.session_state["messages"] = [{"role": "assistant", "content": "需要做啥?"}]
for msg in st.session_state.messages:
    st.chat_message(msg["role"]).write(msg["content"])

功能介绍:

  • 检查 session_state 中是否已有聊天记录,如果没有则初始化一个默认的助手消息。
  • 遍历历史消息,并在聊天窗口中按角色(用户或助手)依次展示对应内容。
    代码效果:
    页面加载后,聊天窗口显示初始的问候信息,并呈现之前的对话记录(若有)。

5. 用户输入处理与模型响应生成

代码片段:

if prompt := st.chat_input():
    st.chat_message("user").write(prompt)
    st.session_state.messages.append({"role": "user", "content": prompt})

    input_ids = tokenizer.apply_chat_template(
        st.session_state.messages, tokenize=False, add_generation_prompt=True
    )
    model_inputs = tokenizer([input_ids], return_tensors="pt").to('cuda')
    generated_ids = model.generate(model_inputs.input_ids, max_new_tokens=max_length)
    generated_ids = [
        output_ids[len(input_ids):]
        for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
    ]
    response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
    think_content, answer_content = split_text(response)
    
    st.session_state.messages.append({"role": "assistant", "content": response})
    with st.expander("模型思考过程"):
        st.write(think_content)
    st.chat_message("assistant").write(answer_content)

功能介绍:

  • 通过 st.chat_input() 接收用户输入,并将其添加到聊天历史中。
  • 利用预定义的聊天模板将所有对话转换为模型输入格式,并通过 tokenizer 处理。
  • 将处理后的输入送入模型生成回复,设定生成 token 数量上限为用户选择的 max_length
  • 对生成的回复进行解码和分割,分离出模型的“思考过程”与最终回答。
  • 将完整回复保存至历史记录中,并分别在可展开区域和聊天窗口中显示“思考过程”和实际回答。
    代码效果:
    用户输入后,聊天窗口立即显示用户消息。模型响应后,用户可以点击展开区域查看模型的内部思考过程,同时直接看到对话回答,呈现完整的交互体验。

6. 辅助函数:分割模型输出

代码片段:

def split_text(text):
    pattern = re.compile(r'<think>(.*?)</think>(.*)', re.DOTALL)
    match = pattern.search(text)
    if match:
        return match.group(1).strip(), match.group(2).strip()
    return "", text.strip()

功能介绍:

  • 使用正则表达式匹配模型输出中以 <think>...</think> 包裹的“思考过程”,将其与实际回答分离。
  • 若没有匹配到“思考过程”,则直接返回完整回答。
    代码效果:
    保证模型的输出能清晰地分离内部“思考过程”与最终回答,方便用户查看模型生成过程。

5.效果测试

streamlit run deepseek_web.py --server.address 127.0.0.1 --server.port 6006

在这里插入图片描述

在这里插入图片描述

内容概要:本文详细探讨了基于樽海鞘算法(SSA)优化的极限学习机(ELM)在回归预测任务中的应用,并与传统的BP神经网络、广义回归神经网络(GRNN)以及未优化的ELM进行了性能对比。首先介绍了ELM的基本原理,即通过随机生成输入层与隐藏层之间的连接权重及阈值,仅需计算输出权重即可快速完成训练。接着阐述了SSA的工作机制,利用樽海鞘群体觅食行为优化ELM的输入权重和隐藏层阈值,从而提高模型性能。随后分别给出了BP、GRNN、ELM和SSA-ELM的具体实现代码,并通过波士顿房价数据集和其他工业数据集验证了各模型的表现。结果显示,SSA-ELM在预测精度方面显著优于其他三种方法,尽管其训练时间较长,但在实际应用中仍具有明显优势。 适合人群:对机器学习尤其是回归预测感兴趣的科研人员和技术开发者,特别是那些希望深入了解ELM及其优化方法的人。 使用场景及目标:适用于需要高效、高精度回归预测的应用场景,如金融建模、工业数据分析等。主要目标是提供一种更为有效的回归预测解决方案,尤其是在处理大规模数据集时能够保持较高的预测精度。 其他说明:文中提供了详细的代码示例和性能对比图表,帮助读者更好地理解和复现实验结果。同时提醒使用者注意SSA参数的选择对模型性能的影响,建议进行参数敏感性分析以获得最佳效果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

油泼辣子多加

感谢大佬!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值