Demo1:实现InternLM2-Chat-1.8B模型

Demo2:实现八戒-Chat-1.8B模型
坑点1:powershell无法直接远程登陆,卡在这个界面

解决方法:直接使用vscode端口转发机制打开,最终实现远程登陆,但真的十分卡顿!!!


Demo3:Lagent 运行 InternLM2-Chat-7B 模型

demo3 ——浦语·灵笔2
图文写作实战

图文理解实战

安装hf模型
本地安装huggingface-cli命令行工具


问题:
本地Python版本低于3.8
解决方法:使用hf_transfer加速

本文介绍了如何实现InternLM2-Chat-1.8B和八戒-Chat-1.8B模型的Demo,涉及powershell远程登陆问题的解决方案,以及在本地安装HuggingFaceCLI时遇到Python版本不足的解决方法。
1731

被折叠的 条评论
为什么被折叠?



