在鲲鹏麒麟服务器上部署MySQL主从集群

因项目需求需要部署主从MySQL集群,继续采用上次的部署的MySQL镜像arm64v8/mysql:latest,版本信息为v8.1.0。计划部署服务器192.168.31.100和192.168.31.101

部署MySQL主节点

在192.168.31.100上先创建好/data/docker/mysql/data和/data/docker/mysql/logs目录,创建好/data/docker/mysql/my.cnf文件,内容如下:

[mysqld]
server-id=100
log-bin=mysql-bin
port=3306
max_connections=200
max_connect_errors=10
character-set-server=utf8
default-storage-engine=INNODB
default_authentication_plugin=mysql_native_password
sql_mode=NO_ENGINE_SUBSTITUTION,STRICT_TRANS_TABLES 
performance_schema_max_table_instances=600

[mysql]
default-character-set=utf8

[client]
port=3306
default-character-set=utf8

然后创建MySQL镜像,执行

docker run --network=host -d -p 3306:3306 \
--name mysql --privileged=true \
-e MYSQL_ROOT_PASSWORD="888888" -e MYSQL_USER="admin" -e MYSQL_PASSWORD="888888" \
-v=/data/docker/mysql/my.cnf:/etc/my.cnf \
-v=/data/docker/mysql/data:/var/lib/mysql \
-v=/data/docker/mysql/logs:/var/log \
-v=/etc/localtime:/etc/localtime \
arm64v8/mysql:latest --server-id=100

执行成功后,检查MySQL是否启动成功,执行docker ps,出现如下内容表示启动成功

[root@server01 mysql]# docker ps
CONTAINER ID        IMAGE                             COMMAND                  CREATED             STATUS                   PORTS                    NAMES
50214a2de4f8        arm64v8/mysql:latest              "docker-entrypoint.s…"   17 minutes ago      Up 17 minutes                                     mysql

进入镜像:docker exec -it mysql /bin/bash
登录MySQL:mysql -uroot -p
依次执行如下命令:

ALTER USER 'root'@'%' IDENTIFIED WITH 'mysql_native_password' BY '888888';
CREATE USER 'slave'@'%' IDENTIFIED BY '888888';
GRANT REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'slave'@'%';
ALTER USER 'slave'@'%' IDENTIFIED WITH 'mysq
<think> 嗯,用户这次询问的是在鲲鹏920服务器部署Ollama的具体步骤。从对话历史看,用户之前关注过是否需要安装显卡驱动的问题,现在则聚焦于国产ARM架构服务器部署场景。 用户提供的引用内容很有意思,展示了鲲鹏环境下的服务配置样例,其中几个细节值得注意:一是修改了OLLAMA_HOST为0.0.0.0实现远程访问,二是通过CUDA_VISIBLE_DEVICES指定GPU设备,三是自定义了模型存储路径。不过鲲鹏920本身没有NVIDIA GPU,所以CUDA_VISIBLE_DEVICES这个配置可能需要调整。 让我梳理下鲲鹏部署的特殊性:首先是CPU架构差异,鲲鹏920采用ARMv8架构,需要编译适配的二进制文件;其次是国产服务器常使用OpenEuler系统,包管理工具和依赖库名称都与Ubuntu不同;最后是GPU加速方案,虽然鲲鹏没有CUDA,但可以通过ROCm支持国产加速卡。 用户可能遇到的主要挑战在于:1)预编译的ollama二进制文件不支持ARM架构 2)系统依赖库缺失 3)GPU加速配置复杂。需要分层次解决:先确保基础服务能在CPU模式下运行,再考虑可选的高性能计算方案。 考虑到运维人员的安全意识,应该强调服务暴露在0.0.0.0时的防火墙配置建议。另外鲲鹏服务器内存带宽优势明显,可以指导用户通过增大并发数来提升吞吐量。 对了,之前回答中提到的AMD显卡ROCm方案在鲲鹏平台同样适用,但需要确认驱动兼容性。如果用户使用昇腾加速卡,则需要切换为CANN计算架构,这个可以作为进阶内容补充。 </think>在鲲鹏920服务器部署Ollama需针对ARM架构进行适配,具体步骤如下: --- ### 一、环境准备 1. **系统要求**: ```bash # 确认系统架构(鲲鹏920需ARM64) uname -m # 输出应为aarch64 cat /etc/os-release # 推荐OpenEuler 20.03+或CentOS 7.6+ ``` 2. **安装基础依赖**: ```bash # OpenEuler示例 sudo dnf install -y git gcc cmake make patch zlib-devel ``` --- ### 二、源码编译安装 1. **获取源码**: ```bash git clone https://github.com/jmorganca/ollama cd ollama ``` 2. **ARM64适配编译**: ```bash # 指定ARM架构编译 GOARCH=arm64 make build ``` 3. **安装二进制**: ```bash sudo cp ./dist/ollama-linux-arm64 /usr/bin/ollama sudo chmod +x /usr/bin/ollama ``` --- ### 三、配置系统服务 1. **创建服务文件** `/etc/systemd/system/ollama.service`: ```ini [Unit] Description=Ollama Service After=network-online.target [Service] ExecStart=/usr/bin/ollama serve User=ollama Group=ollama Restart=always RestartSec=3 Environment="OLLAMA_HOST=0.0.0.0:11434" # 开放全网访问 Environment="OLLAMA_MODELS=/data/ollama/model" # 自定义模型路径[^1] [Install] WantedBy=multi-user.target ``` 2. **创建专用用户**: ```bash sudo useradd -r -s /bin/false ollama sudo mkdir -p /data/ollama/model sudo chown -R ollama:ollama /data/ollama ``` --- ### 四、启动与验证 ```bash # 重载服务配置 sudo systemctl daemon-reload # 启动服务 sudo systemctl start ollama # 查看状态 systemctl status ollama # 应显示active (running) # 测试API连通性 curl http://localhost:11434/api/tags # 返回空列表表示服务正常 ``` --- ### 五、鲲鹏平台特殊优化 1. **内存带宽优化**: 编辑服务文件追加: ```ini Environment="OLLAMA_NUM_PARALLEL=8" # 利用鲲鹏多核优势 ``` 2. **昇腾NPU加速**(可选): ```ini Environment="ASCEND_VISIBLE_DEVICES=0" # 调用昇腾310加速卡 ``` --- ### 六、部署验证 ```bash # 拉取ARM优化模型 ollama pull llama3:8b-instruct-q4_0-arm64 # 运行测试 ollama run llama3:8b-instruct-q4_0-arm64 "你好,鲲鹏!" ``` > 输出中文回复即表示部署成功 --- ### 常见问题解决 | 问题现象 | 解决方案 | |----------|----------| | `非法指令 (core dumped)` | 编译时添加 `GOFLAGS="-tags=nolibgomp"` | | 端口占用11434 | `sudo ss -tulnp | grep 11434` 结束冲突进程 | | 模型下载失败 | 配置代理 `Environment="https_proxy=http://proxy_ip:port"` |
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

angushine

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值