前言
在这个数字化飞速发展的时代,随时随地能够访问到强大的AI工具已经成为了许多人的刚需。特别是对于那些需要频繁使用大型语言模型的人来说,如何在不同的设备和网络环境下保持高效的生产力成了一个亟待解决的问题。
今天,我们将为大家介绍一种全新的解决方案——利用 llamafile 和 cpolar 内网穿透工具 实现远程访问本地千问Qwen 7B大语言模型的完整流程。这不仅能够让你在任何地方都能轻松使用AI大型语言模型,还能大大简化部署和配置的过程,提高安全性和稳定性。
1. 下载llamafile
windows 点击下面下载地址,可以下载llamafile,下载后是一个压缩包,需要解压
https://www.modelscope.cn/api/v1/models/bingal/llamafile-models/repo?Revision=master&FilePath=llamafile-0.6.2.win.zip
下载后,解压压缩文件,可以看到一个llamafile.exe文件,这样就下载成功了,不需要去点击这个文件,下面我们直接下载我们的大语言模型
2. 下载大语言模型
进入这个链接::https://www.modelscope.cn/models/bingal/llamafile-models/,可以下载相应的大语言模型,本例下载的是第一个模型,同时是演示超过4G的模型如何在windows 结合llamafile去运行,如果低于4G的模型,可以有更简单的运行方式,具体可以看一下该链接里的介绍方法
下载好后,我们把下载的大语言模型和上面我们下载的llamafile.exe 文件放在一起,然后就可以运行了.下面开始运行,运行也是非常的简单