完成以下任务,并将实现过程记录截图:
- 配置lmdeploy运行环境
- 下载internlm-chat-1.8b模型
- 以命令行方式与模型对话
具体作业完成情况如下:
一、配置lmdeploy运行环境
创建开发机,创建conda环境



二、下载internlm-chat-1.8b模型

三、以命令行方式与模型对话


四、使用LMDeploy与模型对话


五、使用LMDeploy与模型对话

将设置KV Cache最大占用比例为0.4,开启W4A16量化,以命令行方式与模型对话。
现存的使用量明显下降了,从7856下降到6192.



该博客记录了完成特定作业的过程,包括配置lmdeploy运行环境,创建开发机和conda环境;下载internlm-chat-1.8b模型;以命令行方式与模型对话,还使用LMDeploy与模型对话,并设置KV Cache最大占用比例为0.4,开启W4A16量化,使现存使用量下降。

445

被折叠的 条评论
为什么被折叠?



