firecrawl本地部署+dify调用授权

firecrawl本地部署真的是超级多的坑,为了不再让各位同行和我一样深受其害,我会将我遇到的所有的坑,全都说明上,并写出解决办法

1.拉取firecrawl(你首先需要有git,没有git自行下载)


git clone https://github.com/mendableai/firecrawl.git

2.git拉取完成之后会有一个firecrawl文件,我们需要

cd /firecrawl/apps/api

3.进入到api文件后 输入 ls -a,可以看到有一个 .env.example 的文件

4.我们需要将这个文件复制到firecrawl文件目录下


cp ./.env.example ../../.env

 可以看到 firecrawl下有一个.env文件

 

5.然后需要修改我们刚才复制的.env这个文件,你可以将这个文件使用编辑器打开,按照我划红线的位置修改

 6.修改完成后,你可以再次查看 看看有没有修改成功,修改成功后你需要使用docker 开始拉取


docker pull python
docker pull golang:1.24
docker pull node:18-slim
docker pull redis:alpine

7.在firecrawl目录下 使用命令


docker compose build 

上个命令执行完后执行

docker compose up -d

 出现这样的信息就是成功了

8.可以使用 curl http://192.168.124.8:3002/test (这里我使用的我本机地址,你需要换成你的本机地址),显示hello word  就是成功启动了

9.在dify中使用授权,如果没有安装,可以在dify工具中搜索安装

 

10.遇到的所有的坑

(1)在我compose build 或者 up 的时候报错,是一个go语言的报错

         你需要进入 firecrawl/apps/api  输入 ls  可以看到有一个 docker file 文件 

        修改这个文。添加 ENV GOPROXY=https://goproxy.cn,direct 然后保存 或者从新传到api中,然后从新执行 docker compose build      docker compose up -d

(2) 第二个坑就是,我在dify授权firecrawl的时候 一直保存不了,这是因为防火墙设置,我使用的是ubuntu系统,执行以下命令,把3002 

ubuntu:
查看防火墙状态:sudo ufw status
打开某个端口:sudo ufw allow 3002/tcp

如果有3002/tcp (v6)              ALLOW       Anywhere (v6)      那么就可以保存了

(3)如果你的docker 一直拉不下来你可以更换你的镜像源,这是我配置的镜像源地址 ,你可以使用

{
"registry-mirrors": 
        [
                "https://docker.registry.cyou",
                "https://docker-cf.registry.cyou",
                "https://dockercf.jsdelivr.fyi",
                "https://docker.jsdelivr.fyi",
                "https://dockertest.jsdelivr.fyi",
                "https://mirror.aliyuncs.com",
                "https://dockerproxy.com",
                "https://mirror.baidubce.com",
                "https://docker.m.daocloud.io",
                "https://docker.nju.edu.cn",
                "https://docker.mirrors.sjtug.sjtu.edu.cn",
                "https://docker.mirrors.ustc.edu.cn",
                "https://mirror.iscas.ac.cn",
                "https://docker.rainbond.cc"
        ]

}


 

### 本地部署 Ollama 和 Dify 的方法 #### 部署 Ollama Ollama 是一种用于管理和运行大型语言模型 (LLM) 的开源工具。以下是其基本部署流程: 1. **安装 Ollama** 使用以下命令来安装 Ollama 工具链,适用于大多数 Linux 或 macOS 系统。对于 Windows 用户,则需通过 WSL 来完成操作[^1]。 ```bash curl https://ollama.ai/install.sh | sh ``` 2. **启动服务** 安装完成后,可以通过以下命令启动 Ollama 服务: ```bash ollama serve & ``` 此命令会在后台运行 Ollama API 服务器。 3. **下载模型** 下载所需的 LLM 模型至本地环境。例如,下载 `llama2` 模型可执行如下命令: ```bash ollama pull llama2 ``` 4. **测试模型接口** 测试已加载的模型是否正常工作,可通过 HTTP 请求调用 API 接口验证功能。例如,使用 `curl` 命令发送请求: ```bash curl -X POST http://localhost:11434/api/generate \ -H 'Content-Type: application/json' \ -d '{"model":"llama2","prompt":"Hello"}' ``` --- #### 部署 Dify 平台并与 Ollama 进行集成 Dify 是一款支持自定义对话应用的应用开发平台,能够轻松对接多种 LLM 提供商。以下是具体的部署过程: 1. **克隆项目仓库** 获取 Dify 开源项目的代码库,并切换到稳定分支版本: ```bash git clone https://github.com/dify-ai/dify.git cd dify git checkout stable ``` 2. **初始化依赖项** 初始化必要的 Python 虚拟环境以及安装所需依赖包: ```bash python3 -m venv .venv && source .venv/bin/activate pip install --upgrade pip setuptools wheel pip install -r requirements.txt ``` 3. **配置文件修改** 编辑 `.env.example` 文件中的参数以适配实际需求,并重命名为 `.env` 后保存更改。特别注意设置与 Ollama 对接的相关字段,如 API 地址等信息[^2]: ```plaintext OPENAI_API_BASE=http://localhost:11434 MODEL_NAME=llama2 ``` 4. **运行应用程序** 执行以下脚本启动 FastAPI Web 应用程序实例: ```bash uvicorn app.main:app --host 0.0.0.0 --port 8000 ``` 5. **实现外网访问(可选)** 如果希望外部网络也能连接到您的本地服务,推荐采用内网穿透技术。比如利用 cpolar 创建一条固定的公网隧道[^3]: ```bash ./cpolar tcp 8000 ``` 6. **绑定静态域名** 登录 Cpolar 控制面板,在线为其分配一个永久有效的二级子域名称作为入口地址。 --- ### 注意事项 - 在生产环境中建议启用 HTTPS 加密传输协议保护数据安全; - 根据硬件性能调整并发处理能力及相关资源限制策略;
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值