会议纪要
基本信息
参会人:张经理、李工、王总 时间:2023-10-26 14:00-14:45 地点:线上会议室
讨论要点
- [14:00] 项目进度落后10%
- [14:05] 后端API完成80%
- [14:15] 同意增派2名开发
- [14:25] 要求11月15日前上线
- [14:35] UI需修改登录页
- [14:40] 数据库文档已发送
行动项列表
- [高] 增派2名开发人员(王总,10月28日前)
- [高] 完成API联调(李工,11月5日前)
- [中] 修改登录页UI(张经理,11月10日前)
- [中] 审核数据库设计文档(全体,10月27日前)
待解决问题
- 新增开发人员的具体职责分配
- UI修改的详细需求文档
- 上线前的测试计划安排
### 关键参数调优指南
| 参数 | 推荐值 | 调整场景 |
|------|--------|----------|
| temperature | 0.5-0.7 | 低(0.3)=更严谨,高(0.9)=更多样化 |
| top_p | 0.8-0.9 | 内容相关性控制,越低=越聚焦核心信息 |
| repetition_penalty | 1.02-1.05 | 抑制重复生成,高于1.1可能导致语句不连贯 |
| max_new_tokens | 768-1024 | 单场会议建议不超过1024 tokens |
## 部署与扩展方案
### 轻量级部署(本地服务器)
```bash
# 启动API服务
uvicorn minute_server:app --host 0.0.0.0 --port 8000
# 测试API
curl -X POST "http://localhost:8000/generate" \
-H "Content-Type: application/json" \
-d '{"audio_path": "meeting_recording.wav"}'
企业级扩展架构
常见问题解决方案
1. 显存不足问题
# 方案1:使用CPU推理(速度较慢但兼容性好)
model = AutoModelForCausalLM.from_pretrained(
"./", device_map="cpu", torch_dtype=torch.float32
)
# 方案2:4-bit量化(需安装bitsandbytes)
model = AutoModelForCausalLM.from_pretrained(
"./", load_in_4bit=True, device_map="auto"
)
2. 长会议处理策略
对超过30分钟的会议,采用滑动窗口处理:
def split_long_meeting(text, window_size=500, overlap=100):
"""长文本分段处理"""
tokens = list(jieba.cut(text))
chunks = []
for i in range(0, len(tokens), window_size-overlap):
chunk = "".join(tokens[i:i+window_size])
chunks.append(chunk)
return chunks
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考



