上一篇我们提到,企业若要应用 AI,得在本地构建大语言模型。
接着针对企业具体业务,开发对应的 AI 应用,以此解决实际问题。
这一篇,我们来讲讲怎样快速构建大语言模型应用程序。这里会用到 dify,它是一个开源的大语言模型应用开发平台。
借助这个平台,我们不用编写代码,通过像搭积木一样的方式,把不同功能模块组合起来,就能快速搭建出各类 AI 应用。比如基于本地文件构建智能问答助手。
dify 的安装与配置
首先,下载 dify 镜像:

访问 dify 官网,从官网进入 github,然后下载对应的压缩包。
官网链接:https://dify.ai/zh
github 下载链接:https://github.com/langgenius/dify/ (通过这个下载)
下载后解压,就能得到 dify 镜像文件。
接着,进入 dify 的 docker 文件夹,复制。env.example 文件(这是 dify 基于 docker 部署时的示例配置文件),将其重命名为。env,然后进行修改。

下面来修改配置内容:添加在配置文件最后就可以了
# 使用RAG做检索时,最多只选 10 篇最相关的文档 来生成回答
TOP_K_MAX_VALUE=10
# 启用自定义模型(使用本地大模型)
CUSTOM_MODEL_ENABLED=true
# 指定Ollama的API地址(根据部署环境调整IP)
OLLAMA_A

最低0.47元/天 解锁文章
5261

被折叠的 条评论
为什么被折叠?



