SQL按每5分钟或者10分钟分组统计数据

本文介绍了如何使用SQL语句将数据按每10分钟的时间间隔进行分组,并计算每组的小数平均值。示例中提供了MySQL和SQL Server的不同实现方式,展示了一种高效的数据聚合和时间窗口处理方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

创建表:

CREATE TABLE `tb` (
  `时间` datetime NOT NULL DEFAULT '0000-00-00 00:00:00',
  `小数` decimal(7,5) NOT NULL DEFAULT '0.00000'
)

插入数据:

INSERT INTO `tb`(`时间`, `小数`) VALUES 
('2022-05-30 00:00:01',0.07523),
('2022-05-30 00:01:00',0.04416),
('2022-05-30 00:02:01',0.04429),
('2022-05-30 00:03:00',0.04348),
('2022-05-30 00:04:01',0.02853),
('2022-05-30 00:05:01',0.01429),
('2022-05-30 00:06:01',0.01409),
('2022-05-30 00:07:01',0.01517),
('2022-05-30 00:08:01',0.04371),
('2022-05-30 00:09:01',0.06100),
('2022-05-30 00:10:01',0.08211),
('2022-05-30 00:11:01',0.08391),
('2022-05-30 00:12:01',0.13065),
('2022-05-30 00:13:01',0.17940),
('2022-05-30 00:14:01',0.21385)

如图:

 使用如下SQL语句实现:

SELECT substr(MAX(时间),12,5) as 时间,AVG(小数) as 每组平均数 FROM `tb` group by floor(MINUTE( 时间 )/ 10 ) * 10  

或者如下语句实现:

SELECT date_format(MAX(时间),'%H:%i') as 时间,AVG(小数) as 每组平均数 FROM `tb` group by floor(MINUTE( 时间 )/ 10 ) * 10  

按每10分钟分组最终结果如下:

 sqlserver语句实现可以用:
 

  select CONVERT(varchar(5),max([时间 ]),8) as 时间 ,avg([小数]) as 每组平均数  from [tb] group by cast(floor(cast([时间] as float)*24*60/10)*10/60/24 as smalldatetime)
 

结果如下:

 

为了设置这样的程序,我们可以使用Python编写一个脚本,结合时间管理模块和数据分析库。假设数据是以某种格式存储在CSV文件或者数据库中的,以下是一个基本的流程: ```python import pandas as pd import time import datetime from sqlalchemy import create_engine # 定义数据库连接信息 db_config = { 'drivername': 'sqlite', # 根据你的数据库类型替换(例如,'mysql+pymysql' 或 'postgresql+psycopg2') 'database': 'your_database.db', # 数据库名 'username': 'your_username', 'password': 'your_password' } # 初始化数据库引擎 engine = create_engine(f'db_config["drivername"]://{db_config["username"]}:{db_config["password"]}@{db_config["database"]}') def process_and_store_data(): # 加载数据(这里假设数据在CSV文件中) data_path = 'path_to_your_data.csv' df = pd.read_csv(data_path) # 对数据进行统计(这取决于你的具体需求) grouped_data = df.groupby(pd.Grouper(freq='5Min')).sum() # 按每5分钟分组并求和 # 将统计结果写入数据库 grouped_data.to_sql(name='your_table_name', con=engine, if_exists='append', index=False) print(f"Data processed and stored at {datetime.datetime.now()}") # 定义周期性的任务 while True: process_and_store_data() time.sleep(300) # 休息5分钟后再次执行 # 开始程序 process_and_store_data() ``` 在这个例子中,你需要将`db_config`中的数据库连接信息替换为实际值,以及根据你的数据格式修改`read_csv`部分。`groupby`和`to_sql`步骤则会按照每5分钟的时间粒度对数据进行统计并存入数据库
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一把编程的菜刀

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值