AIgoAI智能算法教学与评测平台(四)——(后端篇)(模型相关)

部署运行你感兴趣的模型镜像

本文内容:后端模型相关方法的介绍

负责人:孙秋延、危钰清

进度:基本完成框架,但之后和前端集成时还需要修改。


一、已实现方法与说明

方法路径方法功能简要说明
/chat/generate通用对话用户传入 prompt 和可选 promptType,系统自动封装提示词并调用大模型获取回答。
/chat/explain逐行代码解释提交一段代码,由模型生成对应的逐行中文解释,帮助理解代码逻辑。
/chat/generate-template生成代码模板用户描述问题并指定语言,系统返回对应语言的函数框架和输入输出结构。
/chat/nl2oj自然语言转标准OJ题目格式支持将用户用口语描述的题目自动转化为结构化题目信息,包括输入、输出、样例等字段。
/chat/suggest-fix出错代码修复建议提交代码和错误日志,由大模型分析问题并生成修复建议,用于减少用户调试成本。

所有方法均通过统一的服务方法 callAiForOneReply(prompt, promptType) 调用大语言模型,并在 wrapPrompt 中封装不同任务类型所需的提示模板。

二、与前端集成可能需修改的部分

在与前端集成和联调过程中,以下几处可能需要进一步调整:

  • 错误提示结构:当前返回格式为统一的 Result.success() / Result.error(),如需兼容更细粒度错误类型或,还要调整枚举类 ResultCode

  • 任务状态接口:如果调用太慢,就改为异步调用,可新增任务队列管理。

  • 前端可视化需求:某些模型返回内容为自然语言长文本,可能需格式化结构(如换行转 <br>)或拆分为段落返回,前后端需对格式进行约定。

三、总结

以上为我本阶段完成的全部后端工作内容。在实现过程中,已尽量抽象共用逻辑,提升接口一致性与可维护性。后续如需对接评分系统、多轮上下文或知识库检索能力,可在当前结构上直接扩展。

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值