
本文内容:后端模型相关方法的介绍
负责人:孙秋延、危钰清
进度:基本完成框架,但之后和前端集成时还需要修改。
一、已实现方法与说明
| 方法路径 | 方法功能 | 简要说明 |
|---|---|---|
/chat/generate | 通用对话 | 用户传入 prompt 和可选 promptType,系统自动封装提示词并调用大模型获取回答。 |
/chat/explain | 逐行代码解释 | 提交一段代码,由模型生成对应的逐行中文解释,帮助理解代码逻辑。 |
/chat/generate-template | 生成代码模板 | 用户描述问题并指定语言,系统返回对应语言的函数框架和输入输出结构。 |
/chat/nl2oj | 自然语言转标准OJ题目格式 | 支持将用户用口语描述的题目自动转化为结构化题目信息,包括输入、输出、样例等字段。 |
/chat/suggest-fix | 出错代码修复建议 | 提交代码和错误日志,由大模型分析问题并生成修复建议,用于减少用户调试成本。 |
所有方法均通过统一的服务方法 callAiForOneReply(prompt, promptType) 调用大语言模型,并在 wrapPrompt 中封装不同任务类型所需的提示模板。
二、与前端集成可能需修改的部分
在与前端集成和联调过程中,以下几处可能需要进一步调整:
-
错误提示结构:当前返回格式为统一的
Result.success()/Result.error(),如需兼容更细粒度错误类型或,还要调整枚举类ResultCode。 -
任务状态接口:如果调用太慢,就改为异步调用,可新增任务队列管理。
-
前端可视化需求:某些模型返回内容为自然语言长文本,可能需格式化结构(如换行转
<br>)或拆分为段落返回,前后端需对格式进行约定。
三、总结
以上为我本阶段完成的全部后端工作内容。在实现过程中,已尽量抽象共用逻辑,提升接口一致性与可维护性。后续如需对接评分系统、多轮上下文或知识库检索能力,可在当前结构上直接扩展。
986

被折叠的 条评论
为什么被折叠?



