- 博客(3)
- 收藏
- 关注
原创 构建你的CPU本地大模型——利用Intel BigDL量化,利用FastChat完成本地部署
想要在CPU上快速运行你的大模型?想要更快更好的量化模型?Intel研发的BigDL-LLM重磅来袭!!!是否苦于项目开发时,本地大模型难以开发api接口?是否苦于 BigDL 量化模型难以与 modelscope、langchain 等主流框架产生联动?本文让你可以用openai的api调用你的本地大模型!!
2024-03-23 17:48:16
2896
2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人