MySQL:[Err] 1292 - Incorrect datetime value: ‘0000-00-00 00:00:00‘ for column ‘CREATE_TIME‘ at row 1

本文介绍如何在使用Navicat导入数据时遇到'0000-00-0000:00:00'错误,通过查看并修改MySQL的sql_mode设置,确保datetime字段接受非空日期,从而解决问题。

使用navicat导入数据时,报错:

[Err] 1292 - Incorrect datetime value: '0000-00-00 00:00:00' for column 'CREATE_TIME' at row 1

这是因为当前的MySQL不支持datetime为0的情况。

解决方案:

查看当前sql_mode:

select @@sql_mode;

ONLY_FULL_GROUP_BY,STRICT_TRANS_TABLES,NO_ZERO_IN_DATE,NO_ZERO_DATE,ERROR_FOR_DIVISION_BY_ZERO,NO_ENGINE_SUBSTITUTION

修改当前sql_mode:

去掉NO_ZERO_IN_DATE和NO_ZERO_DATE

set @@sql_mode = 'ONLY_FULL_GROUP_BY,STRICT_TRANS_TABLES,ERROR_FOR_DIVISION_BY_ZERO,NO_ENGINE_SUBSTITUTION';

SQL Mode定义了MySQL应支持的SQL语法、数据校验等,这样可以更容易地在不同的环境中使用MySQL。

还可以在MySQL配置文件mysql.ini中修改sql_mode配置,这样就不需要每次重启MySQL就得重新设置sql_mode了

在my.ini的[mysqld]下添加:

sql_mode=ONLY_FULL_GROUP_BY,STRICT_TRANS_TABLES,ERROR_FOR_DIVISION_BY_ZERO,NO_ENGINE_SUBSTITUTION

然后重启mysql。

错误详情: (pymysql.err.OperationalError) (1292, "Incorrect datetime value: 'NaT' for column 'accident_time' at row 535") : def transfer_data(): """ 使用分批处理的方式从表1提取数据并加载到表2中,以避免连接超时。 """ batch_size = 10000 # 根据实际性能调整 # --- 创建两个数据库引擎 --- connection_string_1 = f"mysql+pymysql://{DB_CONFIG['user']}:{DB_CONFIG['password']}@{DB_CONFIG['host']}:{DB_CONFIG['port']}/{DB_CONFIG['database_1']}" engine_1 = create_engine( connection_string_1, echo=False, pool_pre_ping=True, connect_args={"connect_timeout": 10, "read_timeout": 600} ) connection_string_2 = f"mysql+pymysql://{DB_CONFIG['user']}:{DB_CONFIG['password']}@{DB_CONFIG['host']}:{DB_CONFIG['port']}/{DB_CONFIG['database_2']}" engine_2 = create_engine( connection_string_2, echo=False, pool_pre_ping=True, connect_args={"connect_timeout": 10, "read_timeout": 600, "write_timeout": 600} ) table1_fields = list(FIELD_MAPPING.keys()) try: print(f"正在从表 '{DB_CONFIG['table1_name']}' 读取数据...") with engine_1.connect() as conn: query = f"SELECT {', '.join(table1_fields)} FROM {DB_CONFIG['table1_name']} WHERE tj_time <= '2025-10-01 00:00:00'" # 获取数据块迭代器 chunks = pd.read_sql(query, conn, chunksize=batch_size) # 遍历每一个数据块 for i, chunk in enumerate(chunks): print(f"正在处理第 {i+1} 批数据(本批 {len(chunk)} 条)...") if chunk.empty: print("数据块为空,跳过。") continue # 如果数据块为空,则跳过本次循环 # 1. 数据转换 (重命名列) df_renamed = chunk.rename(columns=FIELD_MAPPING) table2_columns_order = list(FIELD_MAPPING.values()) df_renamed = df_renamed[table2_columns_order] # 2. 数据清理 (核心步骤:在写入前清理 NaT) # 检查并替换 NaT,确保能正确写入数据库 datetime_cols = df_renamed.select_dtypes(include=['datetime64', 'timedelta64']).columns if len(datetime_cols) > 0: # 使用 replace 将 NaT 替换为 pd.NA df_renamed.replace({pd.NaT: pd.NA}, inplace=True) print(f"批次 {i+1}: 已将 NaT 值替换为 NULL,准备写入。") # 3. 数据写入 (将清理好的数据块写入数据库) # 批量插入 dict_data = df_renamed.to_dict('records') # 假设 db_ops.batch_insert 是你自己封装的高效插入函数 db_ops.batch_insert(engine_2, table="anti_fraud.anti_counterfeit_mark_done", param_list=dict_data) print(f"第 {i+1} 批数据插入完成。") print("\n--- 所有数据迁移成功完成。 ---") except Exception as e: print(f"\n--- 任务执行失败,发生错误 ---") print(f"错误详情: {e}")
最新发布
10-15
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值