第一期公开课中,高通技术公司的讲师团队带来了终端侧AI技术前沿与AI工具链解析,针对大家在开发过程中遇到的典型问题进行在线解析:
问:Qualcomm AI Stack 里有没有实用工具能提升模型在手机端的推理速度?
答: Qualcomm AI Stack工具链非常完善,无论是浮点模型(FP16)还是定点模型(INT4/8/16),都能灵活选择不同量化精度,以提升端侧运行速度。同时还提供多种功耗模式(burst、pauseable、default),方便开发者在不同性能需求下灵活调优。
问:从模型转换到最终在NPU上跑起来,哪一步最容易踩坑?
答:模型转换是最关键的一步。若算子不被支持,就需要替换,这会比较耗时。建议开发者提前查看 Qualcomm Runtime 文档 中的算子列表。同时,量化模型时一定要准备足够的样本数据(几百到几千条),否则容易出现精度问题。
问:有没有转换好的大模型可以直接下载?
答:可以前往Hugging Face(https://huggingface.co/qualcomm)
或模型广场(https://www.aidevhome.com/data/models/)下载,目前已经开放了包括 Qwen 2-7B、Phi-3.5、Stable Diffusion 1.5 等主流大语言和视觉模型,开发者可直接调用使用。
可以发现,端侧AI模型部署其实并不难,关键在于熟练使用高通AI工具链。第二期公开课将聚焦骁龙AI PC应用开发,带来玩转QAI AppBuilder的详细指南,帮助开发者快速掌握在PC上开发和部署AI应用的核心技巧。
了解更多骁龙AI赛事详情:https://a.cvmart.net/rSZB2e
1016

被折叠的 条评论
为什么被折叠?



