- 博客(7)
- 资源 (1)
- 收藏
- 关注

原创 DeepSeek+dify 工作流应用,自然语言查询数据库信息并展示
1.部署千问ollama run qwen2.5:7b2.dify流程部署3.需要用到python及其接口cd进入模型目录pip flask和pymssql运行接口服务文件命令:python 文件名字接口服务文件可以利用deepseek生成:from flask import Flask, request, jsonifyimport pymssqlapp = Flask(name)DATABASE_CONFIG = {‘host’: ‘192.168.1.67\SQL2019’,
2025-03-21 16:21:30
998
原创 python库安装、大模型安装和转换、以及ollama建立自己的模型
1.pip install -i https://pypi.tuna.tsinghua.edu.cn/simple --trusted-host pypi.tuna.tsinghua.edu.cn ***(服务名称)4).在放模型的文件夹内,点击右键-点击 -在终端中打开 - 然后输入 ollama create 模型名称 -f ./modelfile。3.ollama环境大模型目录:D:\8b\blobs拷贝文件过来,在执行下载命令即可完成 OLLAMA可识别的模型文件安装。
2025-04-10 17:17:10
47
原创 dify部署RERANK模型
此处模型名称和模型UID相同,我们的xinference是在docker容器内的,所以,服务器URL是:http://host.docker.internal:9997。3.浏览器输入:http://localhost:9997 即可访问。先创建一个xinference用于保存Xinference。xinference会自动配置RERANK。5.dify配置RERANK模型。4.下载RERANK模型。
2025-04-10 17:15:29
2568
原创 OLLama安装deepseek
2.2.修改一下ollama的模型model安装位置,默认是C盘 (最大版本容量是400G,磁盘够用的可以跳过)1.安装ollama。
2025-03-21 09:53:00
725
原创 Docker部署 Dify
4.安装OLLama插件,此处配置IP必须为内网IP地址或者外网IP。3.部署成功访问本地127.0.0.1。1.安装镜像,多试几次。
2025-03-17 16:48:03
326
QQ局域通讯版源码
2013-06-07
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人