BiliNote部署实践

开源地址:

  • https://github.com/JefferyHcool/BiliNote

🚀 快速开始

1. 克隆仓库

git clone https://github.com/JefferyHcool/BiliNote.git
cd BiliNote
mv .env.example .env

2. 启动后端(FastAPI)

cd backend
pip install -r requirements.txt
python main.py

3. 启动前端(Vite + React)

cd BillNote_frontend
pnpm install
pnpm dev

访问:http://localhost:5173

⚙️ 依赖说明

🎬 FFmpeg

本项目依赖 ffmpeg 用于音频处理与转码,必须安装:

# Mac (brew)
brew install ffmpeg

# Ubuntu / Debian
sudo apt install ffmpeg

改成远程访问的服务器IP地址:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
注意: 1、CUDA版本12.6需要一致; 2、修改前台访问后台的IP和端口信息时,注意清空浏览器缓存,并关闭浏览器,重新打开,防止缓存导致修改不生效;

遇到的问题1

Unable to load any of {libcudnn_ops.so.9.1.0, libcudnn_ops.so.9.1, libcudnn_ops.so.9, libcudnn_ops.so}
Invalid handle. Cannot load symbol cudnnCreateTensorDescriptor
Aborted (core dumped)

在这里插入图片描述

问题定位
  • 使用下面的命令查找对应的库,发现不存在:
find /usr -name "*libcudnn_ops.so*" 2>/dev/null
dpkg -l | grep -i cudnn
安装对应的库
wget https://developer.download.nvidia.com/compute/cudnn/9.1.0/local_installers/cudnn-local-repo-ubuntu2204-9.1.0_1.0-1_amd64.deb

在这里插入图片描述

dpkg -i cudnn-local-repo-ubuntu2204-9.1.0_1.0-1_amd64.deb

在这里插入图片描述

cp /var/cudnn-local-repo-ubuntu2204-9.1.0/cudnn-local-52C3CBCA-keyring.gpg /usr/share/keyrings/ && apt update

在这里插入图片描述

apt install -y libcudnn9-dev-cuda-12 libcudnn9-cuda-12

安装完成,对应的库都有了:
在这里插入图片描述
后台对应的日志也都跑通了:
在这里插入图片描述

前端界面效果:

在这里插入图片描述

要配置 BiliNote 的模型参数,需根据具体需求调整本地模型(如 Fast-Whisper)和大语言模型(如 GPT、Qwen)的设置。以下是详细的配置步骤和参数说明: ### 配置本地音频转写模型(Fast-Whisper) Fast-Whisper 是由 OpenAI 开发的 Whisper 模型的高效实现,支持本地部署和推理。在 BiliNote 中,可以通过以下方式配置: 1. **模型选择** 在 `backend` 目录下的配置文件中(如 `.env` 或 `config.yaml`),指定使用的 Whisper 模型版本。支持的模型包括 `tiny`, `base`, `small`, `medium`, `large`,不同模型在精度与推理速度之间有所权衡。 ```env WHISPER_MODEL=base ``` 2. **设备设置** 若使用 GPU 加速,可在配置中指定使用 CUDA 设备: ```env DEVICE=cuda ``` 3. **语言与任务设置** 指定音频的语言和任务类型(如转录或翻译): ```env WHISPER_LANGUAGE=zh WHISPER_TASK=transcribe ``` 4. **批处理与性能优化** 可调整批处理大小以提高处理效率: ```env WHISPER_BATCH_SIZE=16 ``` 完成配置后,重启后端服务以应用更改: ```bash cd backend uvicorn app.main:app --reload ``` ### 配置大语言模型(如 GPT、Qwen) BiliNote 支持多种大语言模型用于视频内容的总结与结构化处理。配置方式如下: 1. **模型服务选择** 在 `.env` 文件中选择使用的模型服务: ```env LLM_SERVICE=openai ``` 2. **API 密钥配置** 如果使用 OpenAI 或 DeepSeek 等需 API 密钥的服务,需填写对应的密钥: ```env OPENAI_API_KEY=your_openai_api_key DEEPSEEK_API_KEY=your_deepseek_api_key ``` 3. **模型版本与参数** 可指定具体的模型版本(如 `gpt-3.5-turbo` 或 `gpt-4`)以及生成文本的参数: ```env LLM_MODEL=gpt-3.5-turbo LLM_TEMPERATURE=0.7 LLM_MAX_TOKENS=512 ``` 4. **本地模型支持** 若使用本地部署的大模型(如 Qwen),需确保模型路径正确: ```env QWEN_MODEL_PATH=/path/to/qwen ``` ### 操作指南总结 - **修改配置文件**:编辑 `.env` 或 `config.yaml` 文件,调整模型参数。 - **安装依赖**:确保已安装必要的 Python 包,如 `transformers`, `torch`, `openai` 等[^1]。 - **测试模型运行**:启动后端服务,确认模型加载无误,并测试音频转写和内容总结功能[^2]。 - **前端调试**:确保前端服务正常运行,以查看结构化笔记的生成效果: ```bash cd BiliNote_frontend pnpm install pnpm dev ``` 通过以上配置,可以灵活调整 BiliNote 的模型行为,以适应不同的使用场景和性能需求。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值