AI实战指南:手把手教你用llamafile和Qwen7B搭建远程AI聊天环境

前言

在这个数字化的时代,强大的AI工具已经成了我们离不开的小伙伴。但你有没有遇到过这种情况:当你急需使用这些大型语言模型时,却发现手头的设备要么连不上网,要么配置过程复杂到让人抓狂?这不仅影响了你的效率,还可能让你心情糟透了。别担心!今天,我们将介绍一个超实用的方法——通过llamafile和cpolar内网穿透工具,让你随时随地都能轻松使用本地的大模型Qwen 7B。从此,无论是出差路上还是咖啡馆里,你都能享受到高效、便捷的AI体验。

1. 下载llamafile

windows 点击下面下载地址,可以下载llamafile,下载后是一个压缩包,需要解压
https://www.modelscope.cn/api/v1/models/bingal/llamafile-models/repo?Revision=master&FilePath=llamafile-0.6.2.win.zip

下载后,解压压缩文件,可以看到一个llamafile.exe文件,这样就下载成功了,不需要去点击这个文件,下面我们直接下载我们的大语言模型

image-20240822150143720

2. 下载大语言模型

进入这个链接::https://www.modelscope.cn/models/bingal/llamafile-models/,可以下载相应的大语言模型,本例下载的是第一个模型,同时是演示超过4G的模型如何在windows 结合llamafile去运行,如果低于4G的模型,可以有更简单的运行方式,具体可以看一下该链接里的介绍方法

image-20240822150841840

下载好后,我们把下载的大语言模型和上面我们下载的llamafile.exe 文件放在一起,然后就可以运行了.下面开始运行,运行也是非常的简单

image-20240822151053594

3. 运行大语言模型

在当前目录下面,点击左上角文件,直接打开powershell 命令窗口

image-20240822151933218

然后执行下面命令,其中: .\llamafile-0.6.2.exe 表示运行llamafile, .\Qwen-7B-Chat-q4_0.llamafile表示运行自己下载的大语言模型, -ngl 999 表示调用GPU显卡运行,后面则是web 界面访问端口,8080 可以自己修改,后面-host 默认即可

.\llamafile-0.6.2.exe -m .\Qwen-7B-Chat-q4_0.llamafile -ngl 9999 --port 8080 --host 0.0.0.0

执行后,我们可以看到一些信息,没有报错表示运行成功,会默认跳转到浏览器打开对应的界面,如果没有跳转,可以手动访问一下

image-20240822153039876

打开浏览器,我们可以看到 llama 的web ui 界面,这样表示启动就成功了

image-20240822153313531

在最下面的输入框输入即可对话,这样就成功运行了一个大语言模型,不需要安装其他一下各种依赖配置,简单几步就运行成功了,如果我们需要换成其他的模型,同样按照上面运行的方式运行即可,本地成功后,下面我们安装cpolar 内网穿透,实现远程也可以访问,方便在外面的时候也可以使用我们大语言模型

image-20240822153457179

4. 安装Cpolar工具

本例介绍的是windows系统,所以cpolar安装在windows上,点击下面地址访问cpolar官网,注册一个账号,然后下载并安装客户端.

Cpolar官网:https://www.cpolar.com

  • windows系统:在官网下载安装包后,双击安装包一路默认安装即可。

cpolar安装成功后,在浏览器上访问本地9200端口【http://localhost:9200】,使用cpolar账号登录,即可看到Cpolar 管理界面,然后一切设置只需要在管理界面完成即可!

20230130105810

5. 配置远程访问地址

在管理界面点击左侧仪表盘的隧道管理——创建隧道,创建一个llamafile web ui 界面的公网http地址隧道!

  • 隧道名称:可自定义命名,注意不要与已有的隧道名称重复
  • 协议:选择http
  • 本地地址:8080 (上面运行模型的时候指定的端口)
  • 域名类型:免费选择随机域名
  • 地区:选择China vip

点击创建(点击一次创建按钮即可,不要重复点击!)

image-20240822155400700

隧道创建成功后,点击左侧的状态——在线隧道列表,查看所生成的公网访问地址,有两种访问方式,一种是http 和https,两种都可以访问

image-20240822155553737

6. 远程访问对话界面

在浏览器输入上面我们创建的Cpolar 公网域名,可以看到访问成功了

image-20240822155710007

同样在最下面输入对话信息即可完成对话,因为我们是指定使用GPU运行,其响应速度更快,模型对话回复时间更短,这样,一个远程访问的公网地址就设置好了.

image-20240822155854762

小结

为了更好地演示,我们在前述过程中使用了cpolar生成的隧道,其公网地址是随机生成的。这种随机地址的优势在于建立速度快,可以立即使用。然而,它的缺点是网址由随机字符生成,不太容易记忆。另外,这个地址在24小时内会发生随机变化,更适合于临时使用。

我一般会使用固定二级子域名,原因是我希望将网址发送给同事或客户时,它是一个固定、易记的公网地址(例如:llamatest.cpolar.cn),这样更显正式,便于流交协作。

7. 固定远程访问地址

如要配置二级子域名,需要点击进入和登录Cpolar官网,点击左侧的预留,选择保留二级子域名,设置一个二级子域名名称,点击保留:

image-20240822160543758

保留成功后复制保留成功的二级子域名的名称

image-20240822160627601

返回登录cpolar web UI管理界面,点击左侧仪表盘的隧道管理——隧道列表,找到所要配置的隧道,点击右侧的编辑

image-20240822160710901

修改隧道信息,将保留成功的二级子域名配置到隧道中

  • 域名类型:选择二级子域名
  • Sub Domain:填写保留成功的二级子域名

点击更新(注意,点击一次更新即可,不需要重复提交)

image-20240822160744095

更新完成后,打开在线隧道列表,此时可以看到公网地址已经发生变化,地址二级名称变成了我们自己设置的二级子域名名称

image-20240822160822878

再次打开浏览器,输入我们固定的cpolar公网地址,可以看到同样访问成功了,这样一个固定的地址就设置好了,不用再担心地址会变化!

image-20240822160927003

掌握了本文介绍的方法,相信你已经能够游刃有余地利用llamafile和cpolar内网穿透工具远程访问你的大语言模型了。无论是在机场排队安检,还是在舒适的家中沙发上,只需轻轻一点,就能与你的本地大模型无缝连接,高效完成工作或学习任务。这不仅是一次技术上的飞跃,更是我们在快节奏生活中提升生产力的小妙招。从此,再也不用担心网络问题成为你和AI助手之间的障碍了!

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

花影随风_

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值