DeepSeek-Coder-1.3B部署笔记

1.环境部署简述

Coder部署分为两块部分:Pytorch和transformers
前者网上一堆教程就省去了,后者使用pip install transformers

1.1.模型下载

此网站被限制访问,需要科学上网。
https://huggingface.co/deepseek-ai/deepseek-coder-1.3b-instruct

1.1.1. git同步下载

Windows需要提前安装git。

git lfs install

git clone https://huggingface.co/deepseek-ai/deepseek-coder-1.3b-instruct

1.1.2.手动下载

下载地址:https://huggingface.co/deepseek-ai/deepseek-coder-1.3b-instruct/tree/main
进入该网址进行下载。
在这里插入图片描述

2.使用环境

Windows 11 + Intel 6C12T + Nvidia 12GB
Python 3.9
Pytorch 2.5.1+cu118
PyCharm 2023.2.1
可与Yolo共存于同一个环境中

2.1.工程摆放路径

在这里插入图片描述

3.推理测试代码

from transformers import AutoTokenizer, AutoModelForCausalLM
import torch

tokenizer = AutoTokenizer.from_pretrained("./coder/deepseek-coder-1.3b-instruct", trust_remote_code=False)
model = AutoModelForCausalLM.from_pretrained("./coder/deepseek-coder-1.3b-instruct", trust_remote_code=False, torch_dtype=torch.bfloat16).cuda()
messages=[
    { 'role': 'user', 'content': "write a quick sort algorithm in python."}
]
inputs = tokenizer.apply_chat_template(messages, add_generation_prompt=True, return_tensors="pt").to(model.device)
# tokenizer.eos_token_id is the id of <|EOT|> token
outputs = model.generate(inputs, max_new_tokens=512, do_sample=False, top_k=50, top_p=0.95, num_return_sequences=1, eos_token_id=tokenizer.eos_token_id)
print(tokenizer.decode(outputs[0][len(inputs[0]):], skip_special_tokens=True))

4.测试结果

在这里插入图片描述

5.后续更新所提供的进阶思路

后续本人将搭建一个致力于解决嵌入式方向问题的助手。

5.1.搭建具备GUI的ChatBox

5.2.对现有模型进行进一步训练

5.3.实现麦克风语音转文本功能并接入该输入部分

5.4.根据输出文本实现相对应的功能

6. 总结

默认问题分析下占用6G以内的显存,只有在单词分析下才会占用显存,只具备解决编程方向的内容。
目前还是推荐使用Nvidia的GPU使用。
给我个人的感觉是秒杀了ChatGLM-6B,显存占用、运行效率、部署复杂性都被完爆。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AzusaFighting

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值