[Dify] 去除 Ollama Deepseek 中 <think> 内容,仅保留答案部分的实现方案

配套视频:

dify7-2分钟学会在dify中得到deepseek无think回复

在使用 Ollama 的 Deepseek 模型时,我们经常会遇到这样的输出格式:

<think>这是模型的思考过程</think>
这是用户真正想要的回答。

虽然 <think> 部分对调试和理解模型推理过程有一定帮助,但在实际部署如 Dify 等前端平台中,我们通常只希望用户看到最终答案。本文将介绍如何通过一个简单的 Python 函数,从 Ollama 的输出中剥离掉 <think> 标签中的内容,仅保留“答案部分”。

### DifyOllamaDeepSeek 使用指南 #### 下载和运行 DeepSeek 大模型 对于希望使用 DeepSeek R1:7b 模型的用户,在 Docker 容器环境中执行特定命令可以实现这一目标。具体操作是在已安装并配置好 Ollama 环境的前提下,通过终端输入 `docker exec -it ollama ollama run deepseek-r1:7b` 来启动该模型[^1]。 #### 构建本地知识库 借助于 DeepSeekDify 的组合应用,能够快速创建个性化的本地知识库。当在 Dify 前端界面上提出一个问题时,后台会根据之前上传至系统的文档资料以及所使用的 AI 模型来构建响应性的答案[^2]。 #### 自动化更新与维护 为了保持知识库内容的新鲜度和准确性,可以通过编程方式定期抓取最新数据源,并将其转换成适合导入到 Dify 平台上的格式。这通常涉及到编写脚本来自动处理文件上传过程中的预处理工作,比如清理文本、标注元数据等。此外,还可以设置定时任务来触发这些流程,从而减少人工干预的需求。 #### 更改默认存储位置 如果想要改变用于保存自定义资源(例如训练好的模型)的位置,则可以在相应命令中指定新的路径参数 `/your/custom/path`,替换为具体的绝对地址,像这样:`/Users/yourusername/models`[^3]。 #### 更新 Ollama 服务 每当修改了影响程序行为的重要配置项之后——特别是那些涉及全局环境变量设定的部分——应当记得重启整个应用程序以确保更改生效。一种方法是从操作系统自带的任务管理工具里结束当前正在运行的服务实例,再手动重新激活它;另一种更简便的方式就是直接利用 shell 提供的功能发出停止后再开启服务器进程的一系列指令序列,即先终止现有进程,接着用 `ollama serve` 启动新实例。 ```bash # 终止旧版服务 pkill -f "ollama" # 启动新版服务 ollama serve ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

技术小甜甜

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值