Redis批量写入

本文介绍了一种高效的Redis批量数据插入方法,通过Shell脚本生成插入命令并利用Redis管道特性进行快速处理,实现在几分钟内完成2000万条数据的批量插入。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

原文地址:https://blog.youkuaiyun.com/u014078154/article/details/79316430

最近测试redis性能,需要批量向Redis插入1千万条以上的数据,

就简单进行了研究,大概有以下几种方法:

 

一:java程序调用,简单的for循环,通过Jedis的方法,直接插入,

       至于速度,不用看,不用试,根本不行,就不给实现了。

 

二:通过shell脚本,也比较简单,但也是因为要通过port端口的形式,

       连接到redis,速度也是慢的不行,放弃。

 

三:通过redis提供管道,感觉这种方法是最靠谱的,以下是实现:

 

 步骤1:首先简单写一个shell脚本:

 

for((i=1;i<=1000000;i++))
        do
echo "set k$i v$i" >> /tmp/_t.txt
        done

目的是生成一个用批量插入的脚本文件,

 

步骤2:这里linux或者windows上生成的文件不能直接当做redis语句来跑,

                简单来说,就是因为linux,windows和dos的换行并不一样,

                所以需要简单转换一下:

                            转换的方法有好多种:

 

            1:一般Linux发行版中都带有这个小工具,只能把DOS转换为UNIX文件,命令如下:

            # unix2dos dosfile.txt

            上面的命令会去掉行尾的^M符号。(如果机器上没有安装nuix2dos,直接用方法2即可)

            2:用vim,vim是vi的改进版本,使用方式:

            #vim file.txt

            :set fileformat=dos

             ::wq

              一行命令即可,保存退出,

 

 步骤3:就是跑脚本了,通过redis提供的管道--pipe形式,

              cat redisTest.txt | redis-cli -h reids.aliyuncs.com -p 6379 -a xxxx --pipe

              

三步即可,完成redis的批量插入,速度,在2000万条的情况下,生成脚本的速度稍慢,插入的速度还在几分钟,

速度可以说是非常快了~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

### 批量导入JSON文件到Redis的方法 批量将JSON数据导入到Redis中,可以通过多种方法实现。以下提供几种常见的方式,包括使用Python脚本、Lua脚本以及命令行工具。 #### 方法一:使用Python脚本 通过Python的`redis-py`库可以方便地与Redis交互,并结合`json`模块解析JSON数据。以下是示例代码: ```python import redis import json # 加载JSON文件 def load_json(file_path): with open(file_path, 'r') as f: return json.load(f) # 将JSON数据批量导入到Redis def import_to_redis(data, redis_client): for key, value in data.items(): redis_client.execute_command('JSON.SET', key, '.', json.dumps(value)) # 主函数 if __name__ == "__main__": # 连接Redis r = redis.StrictRedis(host='localhost', port=6379, decode_responses=True) # 加载JSON文件 json_data = load_json('data.json') # 导入数据 import_to_redis(json_data, r) ``` 上述代码首先加载JSON文件[^1],然后通过`JSON.SET`命令将每个键值对写入Redis。这种方法适合处理中小规模的JSON文件。 #### 方法二:使用Lua脚本 如果需要更高的性能或更复杂的逻辑,可以编写Lua脚本来完成批量导入。以下是一个简单的Lua脚本示例: ```lua -- 批量导入JSON数据 local function import_json(keys, values) for i, key in ipairs(keys) do local value = values[i] redis.call('JSON.SET', key, '.', value) end end -- 示例调用 local keys = {'key1', 'key2'} local values = {'{"foo":"bar"}', '{"ans":42}'} import_json(keys, values) ``` 此脚本接收两个数组作为参数:一个是键名数组,另一个是对应的JSON字符串数组。通过`JSON.SET`命令将数据写入Redis[^4]。 #### 方法三:命令行工具 如果希望直接通过命令行操作,可以结合`redis-cli`和外部工具(如`jq`)来处理JSON文件。例如: ```bash # 使用 jq 解析 JSON 文件并逐条插入 Redis cat data.json | jq -c '.[]' | while read item; do redis-cli --raw JSON.SET "$(uuidgen)" . "$item" done ``` 上述命令假设`data.json`是一个包含多个JSON对象的数组。通过`jq`将其转换为单行格式,并逐条插入Redis。`uuidgen`用于生成唯一的键名[^3]。 #### 方法四:使用专用工具 一些第三方工具可以帮助简化批量导入过程。例如,`redis-json-importer`等工具提供了友好的界面或命令行选项。具体使用方式请参考工具文档。 --- ### 注意事项 - 确保Redis已启用RedisJSON模块[^1]。 - 对于大规模数据导入,建议分批执行以避免内存占用过高。 - 如果数据结构复杂,可能需要对JSON进行预处理以适配Redis的存储模型。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值