- 博客(5)
- 收藏
- 关注
原创 vLLM部署QwenQwen2.5-VL 详细api调用
我们建议使用 vLLM 进行快速 Qwen2.5-VL 部署和推理。您需要安装才能启用 Qwen2.5-VL 支持。简单来说对模型部署提供俩种方式:一种是通过vllm对模型进行部署;一种是通过官方镜像进行部署。您还可以上传 base64 编码的本地图像(有关详细信息,请参阅。本文介绍第一种方式,默认已经将模型通过vllm部署。您只需安装驱动并下载模型文件即可启动 Demo。,了解有关在线服务和离线推理的更多详细信息。
2025-07-02 11:27:12
4561
原创 dify 工作流定时推送消息到微信
本文主要用于将定时任务结果,通过调用WeChatPad-Docker提过的接口,将定时任务结果推送到微信当中。整体流程为 通过青龙面板管理脚本并编写脚步,实现调用dify工作流接口,并将获取到的结果调用WeChatPad-Docker 项目提供的微信接口,将消息发送到微信当中。
2025-06-30 14:04:52
1993
原创 青龙面板管理dify 定时任务
拉取镜像获取配置文件 通过git获取或者通过访问网址进行下载国内地址:cd 到E:\stu\qinglong\docker# 启动# 停止。
2025-06-25 15:49:40
1190
原创 docker环境下postgresql数据库导出命令
docker exec -i 容器名 pg_dump -U 数据库用户名 -d 数据库名 > 输出路径/文件名.sql。psql -U 用户名 -h 主机名 -p 端口号 -d 数据库名 -f SQL文件路径。postgresql window 命令窗口导入数据库实现。注意:导入的数据库必须存在,如果不存在创建一个空的数据库。docker 导出数据库命令。
2025-06-13 13:50:06
330
原创 langchain +Ollama+调用本地deepseek模型python代码实现
langchain 可以简单理解成一个python 库,库中提供了对于大模型的调用,以及对应大模型数据输入格式。你可以使用langchain定义的格式封装自己训练好的模型。通过langchain调用。最后一步调用本地部署的deepseek r1 进行LLM调用 代码如下 在langChain 中申请的key不是必须的,也可以不申请,只不过不申请无法看到对于这个模型调用一些过程什么的。首先是在python环境中创建一个项目,并指定创建的虚拟环境。在pycharm 右下角,找到刚刚创建好的虚拟环境。
2025-04-16 13:06:20
818
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅