最近闲来无事玩大模型,不过需要硬件需求:
- 独显主机且显卡驱动正常,可能最好英伟达显卡,别的没试过
- windows系统安装了wsl和docker desktop
- 公网ip的云服务器(或者别的内网穿透方案)
- 本地另一台穿透中继服务器(如树莓派,非必须)
部署当然首选ollam,去下面网页下载安装就好,其实安装最简单
OllamaGet up and running with large language models.https://ollama.com/这是一个大模型平台,里面有很多大模型可选,不过考虑中文还是优选通义千问大模型,安装后可能命令行窗口会卡住很久不动也不下载,不过我在ollama界面中发现已经下载完成了(右下角隐藏任务栏),直接在命令行敲回车就进入交互界面了。