会议纪要

会议纪要

基本信息

参会人:张经理、李工、王总 时间:2023-10-26 14:00-14:45 地点:线上会议室

讨论要点

  1. [14:00] 项目进度落后10%
  2. [14:05] 后端API完成80%
  3. [14:15] 同意增派2名开发
  4. [14:25] 要求11月15日前上线
  5. [14:35] UI需修改登录页
  6. [14:40] 数据库文档已发送

行动项列表

  • [高] 增派2名开发人员(王总,10月28日前)
  • [高] 完成API联调(李工,11月5日前)
  • [中] 修改登录页UI(张经理,11月10日前)
  • [中] 审核数据库设计文档(全体,10月27日前)

待解决问题

  1. 新增开发人员的具体职责分配
  2. UI修改的详细需求文档
  3. 上线前的测试计划安排

### 关键参数调优指南
| 参数 | 推荐值 | 调整场景 |
|------|--------|----------|
| temperature | 0.5-0.7 | 低(0.3)=更严谨,高(0.9)=更多样化 |
| top_p | 0.8-0.9 | 内容相关性控制,越低=越聚焦核心信息 |
| repetition_penalty | 1.02-1.05 | 抑制重复生成,高于1.1可能导致语句不连贯 |
| max_new_tokens | 768-1024 | 单场会议建议不超过1024 tokens |

## 部署与扩展方案

### 轻量级部署(本地服务器)
```bash
# 启动API服务
uvicorn minute_server:app --host 0.0.0.0 --port 8000

# 测试API
curl -X POST "http://localhost:8000/generate" \
  -H "Content-Type: application/json" \
  -d '{"audio_path": "meeting_recording.wav"}'

企业级扩展架构

mermaid

常见问题解决方案

1. 显存不足问题

# 方案1:使用CPU推理(速度较慢但兼容性好)
model = AutoModelForCausalLM.from_pretrained(
    "./", device_map="cpu", torch_dtype=torch.float32
)

# 方案2:4-bit量化(需安装bitsandbytes)
model = AutoModelForCausalLM.from_pretrained(
    "./", load_in_4bit=True, device_map="auto"
)

2. 长会议处理策略

对超过30分钟的会议,采用滑动窗口处理:

def split_long_meeting(text, window_size=500, overlap=100):
    """长文本分段处理"""
    tokens = list(jieba.cut(text))
    chunks = []
    for i in range(0, len(tokens), window_size-overlap):
        chunk = "".join(tokens[i:i+window_size])
        chunks.append(chunk)
    return chunks

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值