redis配置文件优化

redis安装
redis配置文件优化


daemonize yes
tcp-backlog 511
loglevel notice
logfile /7000/log/redis.log
pidfile /7000/data/redis.pid
timeout 0
tcp-keepalive 0
databases 16
dir /7000/data
slave-serve-stale-data yes
slave-read-only yes
repl-disable-tcp-nodelay yes
slave-priority 100
appendonly yes
appendfsync everysec
no-appendfsync-on-rewrite yes
auto-aof-rewrite-min-size 64mb
lua-time-limit 5000
cluster-enabled yes
cluster-node-timeout 15000
cluster-migration-barrier 1
slowlog-log-slower-than 10000
slowlog-max-len 128
notify-keyspace-events ""
hash-max-ziplist-entries 512
hash-max-ziplist-value 64
list-max-ziplist-entries 512
list-max-ziplist-value 64
set-max-intset-entries 512
zset-max-ziplist-entries 128
zset-max-ziplist-value 64
activerehashing yes
client-output-buffer-limit normal 0 0 0
client-output-buffer-limit slave 256mb 64mb 60
client-output-buffer-limit pubsub 32mb 8mb 60
hz 10
aof-rewrite-incremental-fsync yes
port 7000
maxmemory 512m
maxmemory-policy allkeys-lru
appendfilename "appendonly-7000.aof"
dbfilename dump-7000.rdb
cluster-config-file /7000/config/cluster-nodes-7000.conf
auto-aof-rewrite-percentage 80-100

转载于:https://www.cnblogs.com/sunshinea121/p/10653620.html

### 优化 Redis 配置文件的最佳实践 #### 设定最大内存量与淘汰策略 为了防止 Redis 使用过多的物理内存,应当设定 `maxmemory` 参数来限定其使用的最大内存空间。当达到这个上限时,Redis 将依据指定的淘汰策略移除部分数据以腾出空间。推荐采用基于最近最少使用原则 (LRU) 的淘汰机制,即设置 `maxmemory-policy allkeys-lru` 来实现更高效的缓存替换效果[^2]。 ```bash # 设置最大内存使用量为2GB maxmemory 2gb # 当超过最大内存限制时,按照LRU算法删除key maxmemory-policy allkeys-lru ``` #### 调整客户端连接数限制 考虑到并发访问的压力可能带来的资源消耗问题,适当调整允许的最大客户端连接数目也是必要的。通常情况下可以在配置文件中通过修改 `maxclients` 值来进行控制,一般建议将其设为128左右作为初始尝试值[^3]。 ```bash # 应用服务器线程池大小,默认无限制;这里设置成128 maxclients 128 ``` #### 启用持久化功能并合理规划频率 虽然开启 AOF 或 RDB 持久化会带来额外开销,但对于某些场景下保障数据安全至关重要。可以根据实际需求权衡利弊后决定是否启用,并且对于AOF来说还可以进一步调节同步到磁盘的操作间隔时间(appendfsync),从而找到性能和可靠性之间的平衡点。 #### 实施批量操作提升效率 针对频繁发生的写入请求,利用 Pipelining 技术能够显著减少网络往返次数进而加快处理速度。这涉及到将多个命令打包发送给服务器一次性执行完毕而不是逐条下达指令等待响应再继续下一步骤的方式改进交互过程[^5]。 ```python import redis r = redis.Redis() pipeline = r.pipeline() for i in range(1000): pipeline.set(f'key{i}', f'value{i}') response = pipeline.execute() ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值