❝开头还是介绍一下群,如果感兴趣PolarDB ,MongoDB ,MySQL ,PostgreSQL ,Redis, OceanBase, Sql Server等有问题,有需求都可以加群群内有各大数据库行业大咖,可以解决你的问题。加群请联系 liuaustin3 ,(共3300人左右 1 + 2 + 3 + 4 +5 + 6 + 7 + 8 +9)(1 2 3 4 5 6 7群均已爆满,开8群近400 9群 200+,开10群PolarDB专业学习群100+ 7月份开课,已经结课)
最近有同学说,老师你课上讲的PostgreSQL Freezing Boom的部分可以讲的更清楚一点,咱们主打的就是一个听劝。
其实我也挺难的,上课的同学不少都没接触过PostgreSQL.别的数据库也没有“炸弹”这个词,再加上课时紧张。不过还是那句话,咱们主打一个听劝。今天就通过文章把这个部分优化一下。
Freezing Boom 到底是什么,中文冻结炸弹,怎么一个数据库就弄出了个炸弹,今天好好的详细的把来龙去脉给同学说清楚。
说这个问题,还是要从PostgreSQL设计说起,我个人看PG的设计者一直走的复杂简单化的路径,虽然PostgreSQL管理起来比MySQL复杂的多,但是PG的设计本身却是大繁化简的设计模式,中国话够用就好,从不进行太多余的担心和过分的设计。
曾经有不少人,包括我也认为把XID,也就是PG的事务ID设计成64为不好吗,这样PG的课不就不会讲 Freezing BOOM了。另外也有人会问,为什么当初设计的人没有设计64XID,非要用32XID。
那我也问你一句话,你觉得在你出生的80,90年代,为什么有万元户这个名称,家里有几万块在那时就非常了得了,现在你有几万块的存款那叫穷光蛋,这叫未来的不可预见性,以及快乐的人生法则,我把现在的事情处理好就OK ,我有必要想那么远,所以我理解了PG的设计大师们都是快乐主义和够用就好的理念的实践者。
那么现在数据库已经设计成32XID了,每个操作都有一个XID被分配的情况下,就会产生一个事情XID被分配光了的问题,终究一个上世纪设计的数据库,你让他服务今天的那堆复杂的业务需求,别太强人所难好吧!
这里我们把可能产生Freezing Boom的思维导图来梳理一下。
PostgreSQL Freezing Boom
1. 产生原因
1 冻结超时(XID 接近上限,触发强制冻结)
2 大表未及时 vacuum,历史版本行积压
3 autovacuum 被阻塞
1 大事务长时间未提交
2 表被 DML/DDL 操作锁定
4 autovacuum 配置不合理
4.1 参数如 freeze_min_age / freeze_max_age 设置不合适
4.2 autovacuum worker 数量太少或太慢
5 存在逻辑坏块或索引损坏
5.1 vacuum freeze 报错中断
6 IO 或 CPU 资源瓶颈
6.1 系统负载高,vacuum 执行缓慢
2. 诊断方法
7 查询数据库 XID 使用情况
7.1SELECT datname, age(datfrozenxid) FROM pg_database;
8 检查表的 relfrozenxid
8.1 pg_class 中 age(relfrozenxid)
9 查看 autovacuum 运行情况
9.1 pg_stat_activity 中是否存在 autovacuum 被阻塞
9.2 pg_locks 中是否存在阻塞链
10 检查 PostgreSQL 日志
10.1 是否存在 vacuum 错误、XID wraparound 警告
11 系统资源监控
11.1 使用 top / iostat / vmstat 或 Prometheus
3. 解决方案
12 手动执行冻结
12.1 VACUUM (FREEZE) 表名;
13 增加 autovacuum 并发能力
13.1 autovacuum_max_workers
13.2 autovacuum_cost_limit
14 优化 autovacuum 参数
14.1 freeze_min_age、freeze_table_age、freeze_max_age
15 终止长事务
15.1 pg_stat_activity + pg_terminate_backend()
16 修复逻辑坏块或索引损坏
16.1 REINDEX、pg_amcheck、pg_dump 恢复等
4. 预防机制
17 设置 XID 冻结预警
17.1 XID 使用率超 80% 告警
18 定期检查 relfrozenxid 最大值
18.1 筛查 age 大于阈值的表
19 控制事务生命周期
19.1 设置 idle_in_transaction_session_timeout
20 优化表结构
20.1 使用分区表降低单表冻结压力
21 自动化维护任务
21.1 定期执行 VACUUM (FREEZE) 或调度批处理任务
这里基于参数的调节等部分之前写过很多文章
PostgreSQL 玩PG我们是认真的,vacuum 稳定性平台我们有了
Postgresql autovacuum 6 为什么大表不进行autovacuum 的原因 (非事务,复制槽原因)
PostgreSQL autovacuum 5 怎么监控(autovacuum 扫描表工作的百分比)
postgresql autovacuum 4 怎么调整参数,让autovacuum 多干活,与成本的计算
Postgresql autovacuum 3 怎么调整参数,拯救你惨淡的性能
PostgreSQL autovacuum 优化与调试 (2 autovacuum 进行了什么样的工作)
PostgreSQL autovacuum 优化与调试 (1 触发 autovacuum 的条件)
我们手动画一个图,下面是一个解释的图,咱们主打一个认真,手工画,虽然比较难看。
其实冻结炸弹,非常形象,在分配XID,他们是分配一半,留了一半。这样就能保证事务的可见性,当重复利用XID进行二次分配的时候,可以知道这是第二次分配了,事务的可见性是根据XID的比大小,所以必须封存一部分XID保证程序判断的时候,一些已经回收的XID所标注的数据不能被显示出来,一句话避免原本属于已提交事务的 ID,可能变为未来事务或回滚事务的 ID,进而使可见行突然不可见,造成数据损坏。所以为了保证数据的正确性,如果你让系统无法回收XID,那么就给你数据库冻结上,冻上的数据库不在工作,只能单用户工作,且进去你只能进行XID的回收的工作,直到你让卡主XID被回收,数据库才能再次可以工作。你数据库不能工作的这段时间,就叫你触发了数据库的冻结炸弹。
那么下面我们关注,怎么发现问题,解决问题即可。
问题 1: Autovacuum 对表不进行工作
Autovacuum对表不进行工作,分三种,一种是表的autovacuum参数设置问题,导致autovacuum无法被有效触发。第二种是表产生了问题,导致autovacuum触发了但无法再这个表上进行操作,这里我们称为autovacuum 被阻塞。
针对这个部分我们需要有相关的语句来进行查询(比如有些表根本就把autovacuum给关闭了,这个算第三种情况)
1 查询那个表被禁止autovacuum
SELECT
relname AS table_name,
reloptions AS table_options,
pg_settings.setting AS autovacuum_global_setting,
CASE
WHEN reloptions::text LIKE '%autovacuum_enabled=off%' THEN 'Disabled by table option'
WHEN pg_settings.setting = 'off' THEN 'Disabled globally'
ELSE 'Enabled'
END AS autovacuum_status
FROM
pg_class
JOIN
pg_namespace ON pg_namespace.oid = pg_class.relnamespace
LEFT JOIN
pg_settings ON pg_settings.name = 'autovacuum'
WHERE
relkind = 'r' -- Only tables
AND pg_namespace.nspname NOT IN ('pg_catalog', 'information_schema') -- Exclude system schemas
AND (
reloptions::text LIKE '%autovacuum_enabled=off%' OR pg_settings.setting = 'off'
)
ORDER BY
table_name;
2 我们是否可以写一个监控程序来去分析这个问题比如你发现有的表就是非预期的没有autovacuum的活动你可以检查 Autovacuum 进程的锁阻塞情况
SELECT
blocked_activity.pid AS blocked_pid,
blocked_activity.application_name AS blocked_application,
blocked_activity.query AS blocked_query,
blocking_activity.pid AS blocking_pid,
blocking_activity.application_name AS blocking_application,
blocking_activity.query AS blocking_query,
blocking_activity.wait_event_type AS blocking_wait_event_type,
blocking_activity.wait_event AS blocking_wait_event,
pg_locks.mode AS blocked_lock_mode,
pg_locks.relation::regclass AS blocked_table
FROM
pg_catalog.pg_locks AS blocked_locks
JOIN
pg_catalog.pg_stat_activity AS blocked_activity
ON blocked_activity.pid = blocked_locks.pid
JOIN
pg_catalog.pg_locks AS blocking_locks
ON blocking_locks.locktype = blocked_locks.locktype
AND blocking_locks.database IS NOT DISTINCT FROM blocked_locks.database
AND blocking_locks.relation IS NOT DISTINCT FROM blocked_locks.relation
AND blocking_locks.page IS NOT DISTINCT FROM blocked_locks.page
AND blocking_locks.tuple IS NOT DISTINCT FROM blocked_locks.tuple
AND blocking_locks.transactionid IS NOT DISTINCT FROM blocked_locks.transactionid
AND blocking_locks.classid IS NOT DISTINCT FROM blocked_locks.classid
AND blocking_locks.objid IS NOT DISTINCT FROM blocked_locks.objid
AND blocking_locks.objsubid IS NOT DISTINCT FROM blocked_locks.objsubid
AND blocked_locks.pid != blocking_locks.pid
JOIN
pg_catalog.pg_stat_activity AS blocking_activity
ON blocking_activity.pid = blocking_locks.pid
WHERE
NOT blocked_locks.granted
AND (blocked_activity.backend_type = 'autovacuum worker' OR blocked_activity.application_name = 'autovacuum launcher')
ORDER BY
blocked_table, blocked_pid;
在比如,有一些从ORACLE迁移过来的,把PG设置成不自动提交,然后就忘记这件事,以为PG是自动提交,然后就出事了。
SELECT
pid,
datname,
usename,
application_name,
client_addr,
backend_start,
xact_start,
now() - xact_start AS transaction_duration,
state,
state_change,
wait_event_type,
wait_event,
query_start,
query
FROM
pg_stat_activity
WHERE
state IN ('idle in transaction', 'idle in transaction (error)')
AND (now() - xact_start) > interval '10 minutes' -- Adjust time as needed
ORDER BY
transaction_duration DESC;
那么到底这里那个表是没有回收XID最老的那个表,也就是最可能阻碍你回收XID的表是那个,需要找出来。
SELECT
n.nspname AS schema_name,
c.relname AS table_name,
age(c.relfrozenxid) AS xid_age_since_freeze,
pg_size_pretty(pg_relation_size(c.oid)) AS table_size,
pg_stat_get_last_autovacuum_time(c.oid) AS last_autovacuum,
pg_stat_get_last_autoanalyze_time(c.oid) AS last_autoanalyze
FROM
pg_class c
JOIN
pg_namespace n ON n.oid = c.relnamespace
WHERE
c.relkind = 'r'
AND n.nspname NOT IN ('pg_catalog', 'information_schema') -- 排除系统模式
ORDER BY
xid_age_since_freeze DESC
LIMIT 1;
另外还有一个点,就是我们要分析我们的日志,对POSTGRESQL的日志,我们可以通过node.js的脚本来分析你的日志来获得一些关于vacuum的工作信息,你可以通过分析出来的信息来去对你的vacuum的工作进行一些调整,比如调整参数,或者对于一些影响autovacuum工作的情况有所了解。
下面是分析PG日志的 NODE.JS的脚本,后面加上日志的参数可以进行分析。
const fs = require('fs');
const readline = require('readline');
const path = require('path');
/**
* PostgreSQL 日志分析器,专注于 VACUUM 信息。
*
* @param {string} logFilePath - PostgreSQL 日志文件的完整路径。
* @returns {Promise<Array<Object>>} - 解析出的 VACUUM 事件数组。
*/
async function analyzePgVacuumLogs(logFilePath) {
// 确保日志文件存在
if (!fs.existsSync(logFilePath)) {
console.error(`错误:日志文件不存在:${logFilePath}`);
return [];
}
const vacuumEvents = [];
let lineNumber = 0;
// 创建 readline 接口,用于逐行读取文件
const fileStream = fs.createReadStream(logFilePath, { encoding: 'utf8' });
const rl = readline.createInterface({
input: fileStream,
crlfDelay: Infinity // 处理 Windows 和 Unix 风格的换行符
});
console.log(`开始分析日志文件: ${logFilePath}`);
// 正则表达式来匹配 PostgreSQL 的日志行和 VACUUM 相关信息
// 这是一个简化版本,具体正则表达式可能需要根据你的 PostgreSQL 日志格式调整
const logLineRegex = /^(\d{4}-\d{2}-\d{2} \d{2}:\d{2}:\d{2}\.\d{3} [A-Z]{3}) \[(.+?)\] (.+?):(\s+autovacuum:)?\s*(VACUUM|ANALYZE)\s*(?:\((freeze)\))?\s*of table\s*"(.+?)"(?::\s*(.+?))?$/;
const durationRegex = /duration:\s*(\d+\.\d+)\s*ms/; // 用于捕获 duration 信息
for await (const line of rl) {
lineNumber++;
// 检查是否是 VACUUM 或 autovacuum 相关的日志行
if (line.includes('VACUUM') || line.includes('autovacuum')) {
const match = line.match(logLineRegex);
const durationMatch = line.match(durationRegex);
if (match) {
const timestamp = match[1];
const logType = match[3].trim(); // LOG, DETAIL, etc.
const isAutovacuum = !!match[4]; // 是否是 autovacuum
const operationType = match[5]; // VACUUM 或 ANALYZE
const isFreeze = !!match[6]; // 是否包含 freeze
const tableNameWithSchema = match[7]; // 表名,可能包含模式
const details = match[8] ? match[8].trim() : ''; // 后续的详细信息
let durationMs = null;
if (durationMatch) {
durationMs = parseFloat(durationMatch[1]);
}
// 从 "schema.table" 中分离模式和表名
const parts = tableNameWithSchema.split('.');
const schemaName = parts.length > 1 ? parts[0] : 'public';
const tableName = parts.length > 1 ? parts.slice(1).join('.') : parts[0];
const event = {
lineNumber,
timestamp,
logType,
isAutovacuum,
operationType,
isFreeze,
schemaName: schemaName.replace(/"/g, ''), // 移除双引号
tableName: tableName.replace(/"/g, ''),
durationMs,
details: details,
rawLog: line
};
vacuumEvents.push(event);
} else {
// 如果没有匹配到预期的 VACUUM 格式,但包含关键字,仍然记录原始日志
vacuumEvents.push({
lineNumber,
rawLog: line,
parsed: false
});
}
}
}
console.log(`日志分析完成。发现 ${vacuumEvents.length} 条 VACUUM 相关事件。`);
return vacuumEvents;
}
// --- 使用命令行参数 ---
(async () => {
// 获取命令行参数: node pg-log-analyzer.js <日志路径> <日志文件名>
const args = process.argv.slice(2); // 移除 'node' 和 'pg-log-analyzer.js'
if (args.length < 2) {
console.error('用法: node pg-log-analyzer.js <日志文件目录> <日志文件名>');
console.error('例如: node pg-log-analyzer.js /var/lib/postgresql/data/pg_log postgresql-2025-07-25_000000.log');
console.error('或者在 Windows 上: node pg-log-analyzer.js "C:\\Program Files\\PostgreSQL\\16\\data\\log" postgresql-2025-07-25_000000.log');
process.exit(1); // 退出并返回错误码
}
const logDirectory = args[0];
const logFileName = args[1];
const fullLogPath = path.join(logDirectory, logFileName); // 拼接完整路径
const events = await analyzePgVacuumLogs(fullLogPath);
if (events.length > 0) {
console.log('\n--- 识别到的 VACUUM 事件摘要 ---');
// 打印前 10 条事件,或所有事件如果数量不多
const eventsToDisplay = events.slice(0, Math.min(events.length, 10));
eventsToDisplay.forEach((event, index) => {
console.log(`\n事件 ${index + 1}:`);
console.log(` 行号: ${event.lineNumber}`);
console.log(` 时间: ${event.timestamp}`);
console.log(` 操作: ${event.isAutovacuum ? '自动' : '手动'}${event.operationType}${event.isFreeze ? ' (冻结)' : ''}`);
console.log(` 表名: ${event.schemaName}.${event.tableName}`);
if (event.durationMs !== null) {
console.log(` 耗时: ${event.durationMs.toFixed(3)} ms`);
}
if (event.details) {
console.log(` 详情: ${event.details}`);
}
if (!event.parsed) {
console.log(` (未完全解析,原始日志): ${event.rawLog}`);
}
});
// 你可以将所有结果保存到 JSON 文件
const outputFileName = `vacuum_analysis_${path.basename(logFileName, path.extname(logFileName))}.json`;
fs.writeFileSync(outputFileName, JSON.stringify(events, null, 2), 'utf8');
console(`\n完整分析结果已保存到:${outputFileName}`);
// 进一步分析:例如,找出最耗时的 VACUUM 操作
const longestVacuum = events.filter(e => e.operationType === 'VACUUM' && e.durationMs !== null)
.sort((a, b) => b.durationMs - a.durationMs)[0];
if (longestVacuum) {
console(`\n最耗时的 VACUUM 操作:`);
console(` 表名: ${longestVacuum.schemaName}.${longestVacuum.tableName}`);
console(` 耗时: ${longestVacuum.durationMs.toFixed(3)} ms`);
console(` 时间: ${longestVacuum.timestamp}`);
console(` 行号: ${longestVacuum.lineNumber}`);
}
} else {
console('\n未找到 VACUUM 相关事件。请检查日志路径、文件名以及 `log_autovacuum_min_duration` 配置。');
}
})();
比如你的这个脚本名字叫 pg-log-analyzer.js 那么可以通过这个脚本+你的日志来进行分析。
node pg-log-analyzer.js /var/lib/postgresql/data/pg_log postgresql-2025-07-25_000000.log
最后,如果发现问题可以通过手动的方式来对要进行XID回收的表进行相关的操作。VACUUM (FREEZE, VERBOSE) your_table_name,那么还有一些建议,相信爱学习的同学也发现了,比如为什么pgbench 在进行数据灌入后,会有选择默认直接对插入数据的表进行 vacuum的操作,举一反三在你初始化一个大表不断插入数据的时候,就建议你在操作完毕后,对表进行vacuum freeze的工作。
喜迎上合在天津召开,本地人宣传人人有责,感谢周欣的视频,如有侵权立即删除。
置顶
这个 PostgreSQL 让我有资本找老板要 鸡腿 鸭腿 !!
OceanBase Hybrid search 能力测试,平换MySQL的好选择
HyBrid Search 实现价值落地,从真实企业的需求角度分析 !不只谈技术!
OceanBase 光速快递 OB Cloud “MySQL” 给我,Thanks a lot
从“小偷”开始,不会从“强盗”结束 -- IvorySQL 2025 PostgreSQL 生态大会
被骂后的文字--技术人不脱离思维困局,终局是个 “死” ? ! ......
个群2025上半年总结,OB、PolarDB, DBdoctor、爱可生、pigsty、osyun、工作岗位等
从MySQL不行了,到乙方DBA 给狗,狗都不干? 我干呀!
SQL SERVER 2025发布了, China幸亏有信创!
MongoDB 麻烦专业点,不懂可以问,别这么用行吗 ! --TTL
PostgreSQL 新版本就一定好--由培训现象让我做的实验
删除数据“八扇屏” 之 锦门英豪 --我去-BigData!
写了3750万字的我,在2000字的OB白皮书上了一课--记 《OceanBase 社区版在泛互场景的应用案例研究》
疯狂老DBA 和 年轻“网红” 程序员 --火星撞地球-- 谁也不是怂货
和架构师沟通那种“一坨”的系统,推荐只能是OceanBase,Why ?
OceanBase 相关文章
写了3750万字的我,在2000字的OB白皮书上了一课--记 《OceanBase 社区版在泛互场景的应用案例研究》
OceanBase 6大学习法--OBCA视频学习总结第六章
OceanBase 6大学习法--OBCA视频学习总结第五章--索引与表设计
OceanBase 6大学习法--OBCA视频学习总结第五章--开发与库表设计
OceanBase 6大学习法--OBCA视频学习总结第四章 --数据库安装
OceanBase 6大学习法--OBCA视频学习总结第三章--数据库引擎
OceanBase 架构学习--OB上手视频学习总结第二章 (OBCA)
OceanBase 6大学习法--OB上手视频学习总结第一章
没有谁是垮掉的一代--记 第四届 OceanBase 数据库大赛
跟我学OceanBase4.0 --阅读白皮书 (OB分布式优化哪里了提高了速度)
跟我学OceanBase4.0 --阅读白皮书 (4.0优化的核心点是什么)
跟我学OceanBase4.0 --阅读白皮书 (0.5-4.0的架构与之前架构特点)
跟我学OceanBase4.0 --阅读白皮书 (旧的概念害死人呀,更新知识和理念)
OceanBase 学习记录-- 建立MySQL租户,像用MySQL一样使用OB
MongoDB 相关文章
MongoDB “升级项目” 大型连续剧(4)-- 与开发和架构沟通与扫尾
MongoDB “升级项目” 大型连续剧(3)-- 自动校对代码与注意事项
MongoDB “升级项目” 大型连续剧(2)-- 到底谁是"der"
MongoDB “升级项目” 大型连续剧(1)-- 可“生”可不升
MongoDB 大俗大雅,上来问分片真三俗 -- 4 分什么分
MongoDB 大俗大雅,高端知识讲“庸俗” --3 奇葩数据更新方法
MongoDB 大俗大雅,高端的知识讲“通俗” -- 2 嵌套和引用
MongoDB 大俗大雅,高端的知识讲“低俗” -- 1 什么叫多模
MongoDB 合作考试报销活动 贴附属,MongoDB基础知识速通
MongoDB 使用网上妙招,直接DOWN机---清理表碎片导致的灾祸 (送书活动结束)
MongoDB 2023年度纽约 MongoDB 年度大会话题 -- MongoDB 数据模式与建模
MongoDB 双机热备那篇文章是 “毒”
MongoDB 会丢数据吗?在次补刀MongoDB 双机热备
MONGODB ---- Austindatabases 历年文章合集
PolarDB 已经开放的课程
PolarDB 非官方课程第八节--数据库弹性弹出一片未来--结课
PolarDB 非官方课程第七节--数据备份还原瞬间完成是怎么做到的--答题领奖品
PolarDB 非官方课程第六节--数据库归档还能这么玩--答题领奖品
PolarDB 非官方课程第五节--PolarDB代理很重要吗?--答题领奖品
PolarDB 非官方课程第四节--PG实时物化视图与行列数据整合处理--答题领奖品
PolarDB 非官方课程第三节--MySQL+IMCI=性能怪兽--答题领奖品
PolarDB 非官方课程第二节--云原生架构与特有功能---答题领奖品
PolarDB 非官方课程第一节-- 用户角度怎么看PolarDB --答题领奖品
免费PolarDB云原生课程,听课“争”礼品,重塑云上知识,提高专业能力
PolarDB 相关文章
这个 PostgreSQL 让我有资本找老板要 鸡腿 鸭腿 !!
用MySQL 分区表脑子有水!从实例,业务,开发角度分析 PolarDB 使用不会像MySQL那么Low
MySQL 和 PostgreSQL 可以一起快速发展,提供更多的功能?
“PostgreSQL” 高性能主从强一致读写分离,我行,你没戏!
POLARDB 添加字段 “卡” 住---这锅Polar不背
PolarDB 版本差异分析--外人不知道的秘密(谁是绵羊,谁是怪兽)
PolarDB 答题拿-- 飞刀总的书、同款卫衣、T恤,来自杭州的Package(活动结束了)
PolarDB for MySQL 三大核心之一POLARFS 今天扒开它--- 嘛是火
PostgreSQL 相关文章
PostgreSQL Hybrid能力岂非“小趴菜”数据库可比 ?
PostgreSQL 新版本就一定好--由培训现象让我做的实验
PostgreSQL 无服务 Neon and Aurora 新技术下的新经济模式 (翻译)
“PostgreSQL” 高性能主从强一致读写分离,我行,你没戏!
PostgreSQL 添加索引导致崩溃,参数调整需谨慎--文档未必完全覆盖场景
PostgreSQL SQL优化用兵法,优化后提高 140倍速度
PostgreSQL 运维的难与“难” --上海PG大会主题记录
PostgreSQL 什么都能存,什么都能塞 --- 你能成熟一点吗?
全世界都在“搞” PostgreSQL ,从Oracle 得到一个“馊主意”开始
PostgreSQL 加索引系统OOM 怨我了--- 不怨你怨谁
PostgreSQL “我怎么就连个数据库都不会建?” --- 你还真不会!
病毒攻击PostgreSQL暴力破解系统,防范加固系统方案(内附分析日志脚本)
PostgreSQL 远程管理越来越简单,6个自动化脚本开胃菜
PostgreSQL 稳定性平台 PG中文社区大会--杭州来去匆匆
PostgreSQL 分组查询可以不进行全表扫描吗?速度提高上千倍?
POSTGRESQL --Austindatabaes 历年文章整理
PostgreSQL 查询语句开发写不好是必然,不是PG的锅
PostgreSQL 字符集乌龙导致数据查询排序的问题,与 MySQL 稳定 "PG不稳定"
PostgreSQL Patroni 3.0 新功能规划 2023年 纽约PG 大会 (音译)
PostgreSQL 玩PG我们是认真的,vacuum 稳定性平台我们有了
PostgreSQL DBA硬扛 垃圾 “开发”,“架构师”,滥用PG 你们滚出 !(附送定期清理连接脚本)
MySQL相关文章
MySQL 的SQL引擎很差吗?由一个同学提出问题引出的实验
用MySql不是MySQL, 不用MySQL都是MySQL 横批 哼哼哈哈啊啊
MYSQL --Austindatabases 历年文章合集
临时工访谈系列
没有谁是垮掉的一代--记 第四届 OceanBase 数据库大赛
SQL SERVER 系列
SQL SERVER 如何实现UNDO REDO 和PostgreSQL 有近亲关系吗

889

被折叠的 条评论
为什么被折叠?



