新入手了华为Matebook pro鸿蒙操作系统笔记本用于大模型开发,先来测试一下吧。
1.从鸿蒙软件市场下载Oseasy虚拟机,下载win11操作系统:Windows 11 企业版 | Microsoft Evaluation Center
win11操作系统下载简体中文 ARM64 版本arm版本的ios,这里安装专业版。
2.激活:
- 打开 PowerShell (确保是管理员权限)。
- 复制以下代码到命令行并执行:irm https://get.activated.win | iex
- 选择选择1。
3.开始->系统->可选功能->更多windows功能->勾选:适用于Linux的Windows子系统
重启
4.在Oseasy虚拟机中的win11操作系统不能嵌套使用第三方软件额外使用虚拟机,如VMware等。也不能使用wsl2,只能使用wsl1。
wsl的官方文档如下:
wsl --list --online 以查看可用发行版列表并运行 wsl --install -d <DistroName> 以安装发行版,即
wsl --install -d Ubuntu
这个时候启动不起来,因为笔记本没有英伟达显卡,所以cuda图形计算加速功能在后面大模型开发中用不上。需要运行
wsl --set-default-version 1
然后重新运行Ubuntu安装命令,完毕后在商店安装windows terminal方便操作Ubuntu。
5.安装Ollama
5.1.方案一(wsl1中推荐离线安装)
在Ollama官网点击download->download for windows下载Ollama。在官网点击Models,下载各个大模型如deepseek-r1的7b或qwen3的4b版本,再高就可能带不动了。也可以使用迅雷下载Linux系统arm版ollama离线安装GitCode - 全球开发者的开源社区,开源代码托管平台
如果是linux中使用Ollama,那么在ollama/docs/linux.md 位于 main ·OLLAMA/OLLAMA ·GitHub的
下载,注意相应的其他注意事项(根据自己电脑的cpu选择,本机是arm的,所以选择ollama-linux-arm64)。
安装好ubuntu后,管理员打开windows terminal,选择ubuntu,设定用户名密码,然后将下载好的压缩包解压到linux的usr目录下:
sudo tar -xvf mnt/c/baidunetdiskdownload/ollama-linux-amd64.tgz -C /usr
前台启动ollama
ollama serve
后台启动(窗口不能关,另起用一个窗口跑命令):
ollama serve &
启动后如果想停止:
ps -ef | grep ollama | grep -v grep
输出:
rsz 2554 1 0 04:28 ? 00:00:00 ollama serve
停止:sudo kill -9 2554
二、若使用 nohup 启动(根据输出的作业号)
1. 查看后台作业
bash
jobs -l
输出示例:
plaintext
[1]+ 12345 Running nohup ollama serve --no-containerd --listen localhost:11434 > ~/ollama.log 2>&1 &
- 作业号:示例中的1。
2. 终止作业
bash
kill %1 # 替换为实际作业号
三、强制终止所有 Ollama 进程
bash
sudo pkill -f ollama
注意:此命令会终止所有包含ollama的进程,可能影响其他相关服务。
四、验证服务是否停止
bash
# 检查进程是否存在ps -ef | grep ollama | grep -v grep
# 检查端口是否释放netstat -tulpn | grep :11434
- 若停止成功:上述命令应无输出。
5.2方案2(方便)
# 更新系统并安装必要依赖(以 Ubuntu ARM 为例,不是wsl1环境了)
sudo apt update && sudo apt install -y curl wget git python3 python3-pip libssl-dev
# 下载 ARM64 专用二进制包
wget https://github.com/ollama/ollama/releases/download/v0.1.15/ollama-linux-arm64
sudo mv ollama-linux-arm64 /usr/local/bin/ollama
sudo chmod +x /usr/local/bin/ollama
# 限制 Ollama 内存使用(适用于 4GB RAM 设备)
export OLLAMA_MAX_MEMORY=3072 # 单位:MB
# 将模型数据存储到高速存储介质(如 SSD)
mkdir -p /ssd/ollama-data && cd /ssd/ollama-data
ollama serve & # 后台启动服务
ollama pull deepseek-r1:1.5b
ollama pull deepseek-r1:7b
ollama pull qwen3:1.7b
ollama pull qwen3:4b
ollama pull qwen2:7b
ollama pull llama3.2:3b
ollama run deepseek-r1:7b
对模型操作(ollama -h列出的命令这里就不列出了):
# WSL1不支持systemd,改用service命令
sudo service ollama status
# 查看服务状态(替代systemctl)
sudo /etc/init.d/ollama status
# WSL1无GPU支持,强制忽略GPU参数
ollama status --all 2>/dev/null# 检查CPU/内存占用
top -p $(pgrep -f ollama)
# 扫描模型监听端口
sudo netstat -tulpn | grep ollama
# 验证进程完整性
ls -l /proc/$(pgrep -f mymodel)/exe
# 实时查看最新日志
journalctl -u ollama.service -f --grep="mymodel"
# 查看历史错误日志
grep -i "error" /var/log/ollama/mymodel.log
如果下载时出现问题,那么可以选择清除之前的下载情况:
二、清理操作(推荐执行,避免残留文件干扰)
方案1
1. 检查是否存在临时文件
ls -la | grep "ollama-linux-arm64"
- 若输出类似:-rw-r--r-- 1 user user 52M Jul 1 15:30 ollama-linux-arm64.part,说明有残留文件。
- 若输出为空:说明无残留,可跳过清理。
2. 删除残留的临时文件
rm -f ollama-linux-arm64.part
说明:-f参数强制删除,避免提示确认;若文件不存在,命令无副作用。
3. 验证清理结果
ls -la | grep "ollama-linux-arm64"
若输出为空:说明清理完成,可重新下载或执行其他操作。
三、其他可能的残留处理(可选)
1. 检查wget历史记录(若需彻底清除下载记录)
cat ~/.wget-hsts # 查看wget历史记录
若包含相关下载记录,可手动删除或清空该文件:
echo "" > ~/.wget-hsts
2. 清理包管理缓存(若后续安装报错)
sudo apt cleansudo apt autoclean
- 场景:若使用apt安装依赖时出现缓存问题,可执行此操作。
方案2:
kill -9 $(pgrep ollama)
sudo rm -rf /usr/local/bin/ollama /usr/local/lib/ollama
rm -rf ~/ollama
sed -i '/ollama/d' ~/.bashrc
rm -rf ~/*ollama*
sudo apt cleansudo apt autoclean
rm -f ollama*
echo "" > ~/.wget-hsts
rm -r .wget-hsts
# 检查命令是否还存在 # 应无输出
which ollama
# 检查目录是否已删除 # 应显示"不存在"
ls -la /usr/local/bin/ollama
ls -la ~/ollama
另外一种安装docker拉取ollama(失败,wsl1不支持)