- 博客(10)
- 收藏
- 关注
原创 MCP + qwen3 + cline 实现简单的代码调用(windows本地实现)
b、成功之后,先配置本地大模型,我使用的本地千问3,如下配置(本地安装千问3,可参照我其他的文章)切换工作目录(我的工作目录:D:\workspace\mcp\server)c、配置完大模型之后,配置mcp服务器,如下图配置,绿色证明连接成功。依赖包安装成功后,开始编写MCP 服务端代码。帮我计算下20+20,采用mcp add方法。安装成功后,命令查看下是否成功 uv -V。a、创建mymcp.py文件,如下。c、启动MCP Server。a、设置act模式,如下图。点击完成之后,接下来测试。
2025-05-05 09:44:49
888
原创 安装最新的qwen3本地模型(windows11)
(ollama版本低,需要更新,如果安装了的ollama且版本低,需要按照下面操作执行更新版本操作,桌面右下角,点击ollama图标,选择重新升级)a、cmd窗口启动ollama服务(本地环境已经安装好了ollama和docker,可以参照前面的几章博客)b、安装qwen3(ollama run qwen3:8b)在Ollama 添加模型(我的本地环境已经有Ollama了)本地电脑已经启动了ollama;(设置的开机自启动)进入Qwen 3页面。已经添加成功本地的qwen3模型了。输入问题发送,安装成功。
2025-05-01 18:48:34
1680
原创 Dify+DeepSeek+flask 大模型回答内容生成Word格式到本地
成功之后切换到text2word环境(conda activate text2word)d、调用本地http服务,把大模型结果推送到本地代码,生成word文档。c、代码执行块,主要是去除大模型返回的问答去除推理部分。注:记得安装python-docx依赖包。a、开始节点,定义文本输入。b、创建python环境。a、切换到本地工作目录。直接设置整个段落的字体。b、本地LLM的输入。
2025-04-28 17:50:36
2506
原创 Dify+deepseek 搭建自己应用实战(本地知识库)
dify跑在本地docker容器内,需要dify配置本地的deepseek访问路径。# 指定 Ollama 的 API 地址(根据部署环境调整 IP)找到Docker Desktop Service服务,重启。
2025-04-23 12:52:42
514
原创 DeepSeek本地部署(wondows11)
3、成功安装ollama之后,安装DeepSeek-r1模型 还是在刚才的Ollama网站,选择Model模块,选择deepseek-r1这个模型(我电脑是32G内存,如果内存比较少,选择参数小的模型)1.5b,7b,8b,14b,32b,70b,671b;如果你电脑运行内存为16G那可以下载14b的蒸馏后的模型,我电脑是32G内存,选择14b的模型,参数越大,使用DeepSeek的效果越好.有很多个版本,区别就是参数不一样可选择的内存不一样。2、成功下载之后,点击安装。
2025-04-22 22:53:10
515
1
原创 yolov8 windows安装使用
5、安装yv8依赖包(工程目录下没有requirements.txt,请在当前目录创建requirements.txt文件copy如下信息)4、使用pycharm切换到虚拟环境,命令: conda activate yv8。1、在windows本地使用命令下载代码:git clone。7、查看安装的依赖包,命令 conda list。3、pycharm 配置环境变量。2、导入pycharm工程中。' (我使用的是本地图片)7、使用python脚本运行。b、切换base环境。8、yolo命令执行。
2024-05-29 09:34:49
1432
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅