说我PG Freezing Boom 讲的一般的那个同学,专帖给你,看看这次可满意

开头还是介绍一下群,如果感兴趣PolarDB ,MongoDB ,MySQL ,PostgreSQL ,Redis, OceanBase, Sql Server等有问题,有需求都可以加群群内有各大数据库行业大咖,可以解决你的问题。加群请联系 liuaustin3 ,(共3300人左右 1 + 2 + 3 + 4 +5 + 6 + 7 + 8 +9)(1 2 3 4 5 6 7群均已爆满,开8群近400 9群 200+,开10群PolarDB专业学习群100+ 7月份开课,已经结课)

最近有同学说,老师你课上讲的PostgreSQL Freezing Boom的部分可以讲的更清楚一点,咱们主打的就是一个听劝。

其实我也挺难的,上课的同学不少都没接触过PostgreSQL.别的数据库也没有“炸弹”这个词,再加上课时紧张。不过还是那句话,咱们主打一个听劝。今天就通过文章把这个部分优化一下。

Freezing Boom 到底是什么,中文冻结炸弹,怎么一个数据库就弄出了个炸弹,今天好好的详细的把来龙去脉给同学说清楚。

说这个问题,还是要从PostgreSQL设计说起,我个人看PG的设计者一直走的复杂简单化的路径,虽然PostgreSQL管理起来比MySQL复杂的多,但是PG的设计本身却是大繁化简的设计模式,中国话够用就好,从不进行太多余的担心和过分的设计。

曾经有不少人,包括我也认为把XID,也就是PG的事务ID设计成64为不好吗,这样PG的课不就不会讲 Freezing BOOM了。另外也有人会问,为什么当初设计的人没有设计64XID,非要用32XID。

那我也问你一句话,你觉得在你出生的80,90年代,为什么有万元户这个名称,家里有几万块在那时就非常了得了,现在你有几万块的存款那叫穷光蛋,这叫未来的不可预见性,以及快乐的人生法则,我把现在的事情处理好就OK ,我有必要想那么远,所以我理解了PG的设计大师们都是快乐主义和够用就好的理念的实践者。

那么现在数据库已经设计成32XID了,每个操作都有一个XID被分配的情况下,就会产生一个事情XID被分配光了的问题,终究一个上世纪设计的数据库,你让他服务今天的那堆复杂的业务需求,别太强人所难好吧!

这里我们把可能产生Freezing Boom的思维导图来梳理一下。

PostgreSQL Freezing Boom

1. 产生原因

1 冻结超时(XID 接近上限,触发强制冻结)

2 大表未及时 vacuum,历史版本行积压

3 autovacuum 被阻塞

    1 大事务长时间未提交

     2 表被 DML/DDL 操作锁定

4 autovacuum 配置不合理

     4.1 参数如 freeze_min_age / freeze_max_age 设置不合适

     4.2 autovacuum worker 数量太少或太慢

5  存在逻辑坏块或索引损坏

     5.1  vacuum freeze 报错中断

6  IO 或 CPU 资源瓶颈

     6.1 系统负载高,vacuum 执行缓慢

2. 诊断方法

7  查询数据库 XID 使用情况

     7.1SELECT datname, age(datfrozenxid) FROM pg_database;

8   检查表的 relfrozenxid

     8.1 pg_class 中 age(relfrozenxid)

9   查看 autovacuum 运行情况

     9.1 pg_stat_activity 中是否存在 autovacuum 被阻塞

     9.2 pg_locks 中是否存在阻塞链

10  检查 PostgreSQL 日志

       10.1 是否存在 vacuum 错误、XID wraparound 警告

11  系统资源监控

      11.1 使用 top / iostat / vmstat 或 Prometheus

3. 解决方案

12 手动执行冻结

      12.1 VACUUM (FREEZE) 表名;

13  增加 autovacuum 并发能力

      13.1 autovacuum_max_workers

      13.2 autovacuum_cost_limit

14 优化 autovacuum 参数

      14.1 freeze_min_age、freeze_table_age、freeze_max_age

15  终止长事务

      15.1 pg_stat_activity + pg_terminate_backend()

16  修复逻辑坏块或索引损坏

      16.1 REINDEX、pg_amcheck、pg_dump 恢复等

4. 预防机制

17  设置 XID 冻结预警

       17.1 XID 使用率超 80% 告警

18  定期检查 relfrozenxid 最大值

      18.1 筛查 age 大于阈值的表

19 控制事务生命周期

     19.1 设置 idle_in_transaction_session_timeout

20 优化表结构

      20.1 使用分区表降低单表冻结压力

21 自动化维护任务

      21.1 定期执行 VACUUM (FREEZE) 或调度批处理任务

这里基于参数的调节等部分之前写过很多文章

PostgreSQL   玩PG我们是认真的,vacuum 稳定性平台我们有了

Postgresql  autovacuum   6  为什么大表不进行autovacuum 的原因 (非事务,复制槽原因)

PostgreSQL autovacuum 5   怎么监控(autovacuum 扫描表工作的百分比)

postgresql  autovacuum 4 怎么调整参数,让autovacuum 多干活,与成本的计算

Postgresql  autovacuum 3 怎么调整参数,拯救你惨淡的性能

PostgreSQL autovacuum 优化与调试 (2 autovacuum 进行了什么样的工作)

PostgreSQL autovacuum 优化与调试 (1 触发 autovacuum 的条件)


我们手动画一个图,下面是一个解释的图,咱们主打一个认真,手工画,虽然比较难看。

其实冻结炸弹,非常形象,在分配XID,他们是分配一半,留了一半。这样就能保证事务的可见性,当重复利用XID进行二次分配的时候,可以知道这是第二次分配了,事务的可见性是根据XID的比大小,所以必须封存一部分XID保证程序判断的时候,一些已经回收的XID所标注的数据不能被显示出来,一句话避免原本属于已提交事务的 ID,可能变为未来事务或回滚事务的 ID,进而使可见行突然不可见,造成数据损坏。所以为了保证数据的正确性,如果你让系统无法回收XID,那么就给你数据库冻结上,冻上的数据库不在工作,只能单用户工作,且进去你只能进行XID的回收的工作,直到你让卡主XID被回收,数据库才能再次可以工作。你数据库不能工作的这段时间,就叫你触发了数据库的冻结炸弹。

解释怎么产生冻结炸弹
解释怎么产生冻结炸弹

那么下面我们关注,怎么发现问题,解决问题即可。

问题 1: Autovacuum 对表不进行工作

Autovacuum对表不进行工作,分三种,一种是表的autovacuum参数设置问题,导致autovacuum无法被有效触发。第二种是表产生了问题,导致autovacuum触发了但无法再这个表上进行操作,这里我们称为autovacuum 被阻塞。

针对这个部分我们需要有相关的语句来进行查询(比如有些表根本就把autovacuum给关闭了,这个算第三种情况)

1  查询那个表被禁止autovacuum

SELECT
    relname AS table_name,
    reloptions AS table_options,
    pg_settings.setting AS autovacuum_global_setting,
    CASE
        WHEN reloptions::text LIKE '%autovacuum_enabled=off%' THEN 'Disabled by table option'
        WHEN pg_settings.setting = 'off' THEN 'Disabled globally'
        ELSE 'Enabled'
    END AS autovacuum_status
FROM
    pg_class
JOIN
    pg_namespace ON pg_namespace.oid = pg_class.relnamespace
LEFT JOIN
    pg_settings ON pg_settings.name = 'autovacuum'
WHERE
    relkind = 'r' -- Only tables
    AND pg_namespace.nspname NOT IN ('pg_catalog', 'information_schema') -- Exclude system schemas
    AND (
        reloptions::text LIKE '%autovacuum_enabled=off%' OR pg_settings.setting = 'off'
    )
ORDER BY
    table_name;

2 我们是否可以写一个监控程序来去分析这个问题比如你发现有的表就是非预期的没有autovacuum的活动你可以检查 Autovacuum 进程的锁阻塞情况

SELECT
    blocked_activity.pid AS blocked_pid,
    blocked_activity.application_name AS blocked_application,
    blocked_activity.query AS blocked_query,
    blocking_activity.pid AS blocking_pid,
    blocking_activity.application_name AS blocking_application,
    blocking_activity.query AS blocking_query,
    blocking_activity.wait_event_type AS blocking_wait_event_type,
    blocking_activity.wait_event AS blocking_wait_event,
    pg_locks.mode AS blocked_lock_mode,
    pg_locks.relation::regclass AS blocked_table
FROM
    pg_catalog.pg_locks AS blocked_locks
JOIN
    pg_catalog.pg_stat_activity AS blocked_activity
    ON blocked_activity.pid = blocked_locks.pid
JOIN
    pg_catalog.pg_locks AS blocking_locks
    ON blocking_locks.locktype = blocked_locks.locktype
    AND blocking_locks.database IS NOT DISTINCT FROM blocked_locks.database
    AND blocking_locks.relation IS NOT DISTINCT FROM blocked_locks.relation
    AND blocking_locks.page IS NOT DISTINCT FROM blocked_locks.page
    AND blocking_locks.tuple IS NOT DISTINCT FROM blocked_locks.tuple
    AND blocking_locks.transactionid IS NOT DISTINCT FROM blocked_locks.transactionid
    AND blocking_locks.classid IS NOT DISTINCT FROM blocked_locks.classid
    AND blocking_locks.objid IS NOT DISTINCT FROM blocked_locks.objid
    AND blocking_locks.objsubid IS NOT DISTINCT FROM blocked_locks.objsubid
    AND blocked_locks.pid != blocking_locks.pid
JOIN
    pg_catalog.pg_stat_activity AS blocking_activity
    ON blocking_activity.pid = blocking_locks.pid
WHERE
    NOT blocked_locks.granted
    AND (blocked_activity.backend_type = 'autovacuum worker' OR blocked_activity.application_name = 'autovacuum launcher')
ORDER BY
    blocked_table, blocked_pid;

在比如,有一些从ORACLE迁移过来的,把PG设置成不自动提交,然后就忘记这件事,以为PG是自动提交,然后就出事了。

SELECT
    pid,
    datname,
    usename,
    application_name,
    client_addr,
    backend_start,
    xact_start,
    now() - xact_start AS transaction_duration,
    state,
    state_change,
    wait_event_type,
    wait_event,
    query_start,
    query
FROM
    pg_stat_activity
WHERE
    state IN ('idle in transaction', 'idle in transaction (error)')
    AND (now() - xact_start) > interval '10 minutes' -- Adjust time as needed
ORDER BY
    transaction_duration DESC;

那么到底这里那个表是没有回收XID最老的那个表,也就是最可能阻碍你回收XID的表是那个,需要找出来。

SELECT
    n.nspname AS schema_name,
    c.relname AS table_name,
    age(c.relfrozenxid) AS xid_age_since_freeze,
    pg_size_pretty(pg_relation_size(c.oid)) AS table_size,
    pg_stat_get_last_autovacuum_time(c.oid) AS last_autovacuum,
    pg_stat_get_last_autoanalyze_time(c.oid) AS last_autoanalyze
FROM
    pg_class c
JOIN
    pg_namespace n ON n.oid = c.relnamespace
WHERE
    c.relkind = 'r'
    AND n.nspname NOT IN ('pg_catalog', 'information_schema') -- 排除系统模式
ORDER BY
    xid_age_since_freeze DESC
LIMIT 1;

另外还有一个点,就是我们要分析我们的日志,对POSTGRESQL的日志,我们可以通过node.js的脚本来分析你的日志来获得一些关于vacuum的工作信息,你可以通过分析出来的信息来去对你的vacuum的工作进行一些调整,比如调整参数,或者对于一些影响autovacuum工作的情况有所了解。

下面是分析PG日志的 NODE.JS的脚本,后面加上日志的参数可以进行分析。

const fs = require('fs');
const readline = require('readline');
const path = require('path');

/**
 * PostgreSQL 日志分析器,专注于 VACUUM 信息。
 *
 * @param {string} logFilePath - PostgreSQL 日志文件的完整路径。
 * @returns {Promise<Array<Object>>} - 解析出的 VACUUM 事件数组。
 */
async function analyzePgVacuumLogs(logFilePath) {
    // 确保日志文件存在
    if (!fs.existsSync(logFilePath)) {
        console.error(`错误:日志文件不存在:${logFilePath}`);
        return [];
    }

    const vacuumEvents = [];
    let lineNumber = 0;

    // 创建 readline 接口,用于逐行读取文件
    const fileStream = fs.createReadStream(logFilePath, { encoding: 'utf8' });
    const rl = readline.createInterface({
        input: fileStream,
        crlfDelay: Infinity // 处理 Windows 和 Unix 风格的换行符
    });

    console.log(`开始分析日志文件: ${logFilePath}`);

    // 正则表达式来匹配 PostgreSQL 的日志行和 VACUUM 相关信息
    // 这是一个简化版本,具体正则表达式可能需要根据你的 PostgreSQL 日志格式调整
    const logLineRegex = /^(\d{4}-\d{2}-\d{2} \d{2}:\d{2}:\d{2}\.\d{3} [A-Z]{3}) \[(.+?)\] (.+?):(\s+autovacuum:)?\s*(VACUUM|ANALYZE)\s*(?:\((freeze)\))?\s*of table\s*"(.+?)"(?::\s*(.+?))?$/;
    const durationRegex = /duration:\s*(\d+\.\d+)\s*ms/; // 用于捕获 duration 信息

    for await (const line of rl) {
        lineNumber++;

        // 检查是否是 VACUUM 或 autovacuum 相关的日志行
        if (line.includes('VACUUM') || line.includes('autovacuum')) {
            const match = line.match(logLineRegex);
            const durationMatch = line.match(durationRegex);

            if (match) {
                const timestamp = match[1];
                const logType = match[3].trim(); // LOG, DETAIL, etc.
                const isAutovacuum = !!match[4]; // 是否是 autovacuum
                const operationType = match[5]; // VACUUM 或 ANALYZE
                const isFreeze = !!match[6]; // 是否包含 freeze
                const tableNameWithSchema = match[7]; // 表名,可能包含模式
                const details = match[8] ? match[8].trim() : ''; // 后续的详细信息

                let durationMs = null;
                if (durationMatch) {
                    durationMs = parseFloat(durationMatch[1]);
                }

                // 从 "schema.table" 中分离模式和表名
                const parts = tableNameWithSchema.split('.');
                const schemaName = parts.length > 1 ? parts[0] : 'public';
                const tableName = parts.length > 1 ? parts.slice(1).join('.') : parts[0];

                const event = {
                    lineNumber,
                    timestamp,
                    logType,
                    isAutovacuum,
                    operationType,
                    isFreeze,
                    schemaName: schemaName.replace(/"/g, ''), // 移除双引号
                    tableName: tableName.replace(/"/g, ''),
                    durationMs,
                    details: details,
                    rawLog: line
                };
                vacuumEvents.push(event);
            } else {
                // 如果没有匹配到预期的 VACUUM 格式,但包含关键字,仍然记录原始日志
                vacuumEvents.push({
                    lineNumber,
                    rawLog: line,
                    parsed: false
                });
            }
        }
    }

    console.log(`日志分析完成。发现 ${vacuumEvents.length} 条 VACUUM 相关事件。`);
    return vacuumEvents;
}

// --- 使用命令行参数 ---
(async () => {
    // 获取命令行参数: node pg-log-analyzer.js <日志路径> <日志文件名>
    const args = process.argv.slice(2); // 移除 'node' 和 'pg-log-analyzer.js'

    if (args.length < 2) {
        console.error('用法: node pg-log-analyzer.js <日志文件目录> <日志文件名>');
        console.error('例如: node pg-log-analyzer.js /var/lib/postgresql/data/pg_log postgresql-2025-07-25_000000.log');
        console.error('或者在 Windows 上: node pg-log-analyzer.js "C:\\Program Files\\PostgreSQL\\16\\data\\log" postgresql-2025-07-25_000000.log');
        process.exit(1); // 退出并返回错误码
    }

    const logDirectory = args[0];
    const logFileName = args[1];
    const fullLogPath = path.join(logDirectory, logFileName); // 拼接完整路径

    const events = await analyzePgVacuumLogs(fullLogPath);

    if (events.length > 0) {
        console.log('\n--- 识别到的 VACUUM 事件摘要 ---');
        // 打印前 10 条事件,或所有事件如果数量不多
        const eventsToDisplay = events.slice(0, Math.min(events.length, 10));

        eventsToDisplay.forEach((event, index) => {
            console.log(`\n事件 ${index + 1}:`);
            console.log(`  行号: ${event.lineNumber}`);
            console.log(`  时间: ${event.timestamp}`);
            console.log(`  操作: ${event.isAutovacuum ? '自动' : '手动'}${event.operationType}${event.isFreeze ? ' (冻结)' : ''}`);
            console.log(`  表名: ${event.schemaName}.${event.tableName}`);
            if (event.durationMs !== null) {
                console.log(`  耗时: ${event.durationMs.toFixed(3)} ms`);
            }
            if (event.details) {
                console.log(`  详情: ${event.details}`);
            }
            if (!event.parsed) {
                console.log(`  (未完全解析,原始日志): ${event.rawLog}`);
            }
        });

        // 你可以将所有结果保存到 JSON 文件
        const outputFileName = `vacuum_analysis_${path.basename(logFileName, path.extname(logFileName))}.json`;
        fs.writeFileSync(outputFileName, JSON.stringify(events, null, 2), 'utf8');
        console(`\n完整分析结果已保存到:${outputFileName}`);

        // 进一步分析:例如,找出最耗时的 VACUUM 操作
        const longestVacuum = events.filter(e => e.operationType === 'VACUUM' && e.durationMs !== null)
                                    .sort((a, b) => b.durationMs - a.durationMs)[0];
        if (longestVacuum) {
            console(`\n最耗时的 VACUUM 操作:`);
            console(`  表名: ${longestVacuum.schemaName}.${longestVacuum.tableName}`);
            console(`  耗时: ${longestVacuum.durationMs.toFixed(3)} ms`);
            console(`  时间: ${longestVacuum.timestamp}`);
            console(`  行号: ${longestVacuum.lineNumber}`);
        }

    } else {
        console('\n未找到 VACUUM 相关事件。请检查日志路径、文件名以及 `log_autovacuum_min_duration` 配置。');
    }
})();

比如你的这个脚本名字叫 pg-log-analyzer.js 那么可以通过这个脚本+你的日志来进行分析。

node pg-log-analyzer.js /var/lib/postgresql/data/pg_log postgresql-2025-07-25_000000.log

最后,如果发现问题可以通过手动的方式来对要进行XID回收的表进行相关的操作。VACUUM (FREEZE, VERBOSE) your_table_name,那么还有一些建议,相信爱学习的同学也发现了,比如为什么pgbench 在进行数据灌入后,会有选择默认直接对插入数据的表进行 vacuum的操作,举一反三在你初始化一个大表不断插入数据的时候,就建议你在操作完毕后,对表进行vacuum freeze的工作。

喜迎上合在天津召开,本地人宣传人人有责,感谢周欣的视频,如有侵权立即删除。



置顶

     短评 国产数据库营销市场 “问题”

     这个 PostgreSQL 让我有资本找老板要 鸡腿 鸭腿 !!

     DBA被瞧不起 你有什么建议? Drive Fast !

OceanBase Hybrid search 能力测试,平换MySQL的好选择

HyBrid Search 实现价值落地,从真实企业的需求角度分析 !不只谈技术!

一个IP地址访问两个PG实例,上演“一女嫁二夫”的戏码

OceanBase 光速快递 OB Cloud “MySQL” 给我,Thanks a lot

从“小偷”开始,不会从“强盗”结束 -- IvorySQL 2025 PostgreSQL 生态大会

被骂后的文字--技术人不脱离思维困局,终局是个 “死” ? ! ......

9

个群2025上半年总结,OB、PolarDB, DBdoctor、爱可生、pigsty、osyun、工作岗位等

卷呀卷,Hybrid 混合查询学习--哪个库是小趴菜

从MySQL不行了,到乙方DBA 给狗,狗都不干? 我干呀!

DBA 干不好容易蹲牢房--这事你知道吗?

SQL SERVER 2025发布了, China幸亏有信创!

MongoDB 麻烦专业点,不懂可以问,别这么用行吗 ! --TTL

P-MySQL SQL优化案例,反观MySQL不死没有天理

MySQL 条件下推与排序优化实例--MySQL8.035

云数据库厂商除了卷技术,下一个阶段还可以卷什么?

PostgreSQL 新版本就一定好--由培训现象让我做的实验

某数据库下的一手好棋!共享存储落子了!

删除数据“八扇屏” 之 锦门英豪  --我去-BigData!

PostgreSQL “乱弹” 从索引性能到开发优化

写了3750万字的我,在2000字的OB白皮书上了一课--记 《OceanBase 社区版在泛互场景的应用案例研究》

SQLSHIFT 是爱可生对OB的雪中送炭!

青春的记忆,MySQL 30年感谢有你,再见!(译)

老实人做的数据库产品,好像也不“老实” !

疯狂老DBA 和 年轻“网红” 程序员 --火星撞地球-- 谁也不是怂货  

哈呀站,OB广州开发者大会 之 “五” 眼联盟

和架构师沟通那种“一坨”的系统,推荐只能是OceanBase,Why ?

OceanBase 相关文章

某数据库下的一手好棋!共享存储落子了!

写了3750万字的我,在2000字的OB白皮书上了一课--记 《OceanBase 社区版在泛互场景的应用案例研究》

     哈呀站,OB广州开发者大会 之 “五” 眼联盟

OceanBase 单机版可以大批量快速部署吗? YES

OceanBase 6大学习法--OBCA视频学习总结第六章

OceanBase 6大学习法--OBCA视频学习总结第五章--索引与表设计

OceanBase 6大学习法--OBCA视频学习总结第五章--开发与库表设计

OceanBase 6大学习法--OBCA视频学习总结第四章 --数据库安装

OceanBase 6大学习法--OBCA视频学习总结第三章--数据库引擎

OceanBase 架构学习--OB上手视频学习总结第二章 (OBCA)

OceanBase 6大学习法--OB上手视频学习总结第一章

没有谁是垮掉的一代--记 第四届 OceanBase 数据库大赛

OceanBase  送祝福活动,礼物和幸运带给您

跟我学OceanBase4.0 --阅读白皮书 (OB分布式优化哪里了提高了速度)

跟我学OceanBase4.0 --阅读白皮书 (4.0优化的核心点是什么)

跟我学OceanBase4.0 --阅读白皮书 (0.5-4.0的架构与之前架构特点)

跟我学OceanBase4.0 --阅读白皮书 (旧的概念害死人呀,更新知识和理念)

聚焦SaaS类企业数据库选型(技术、成本、合规、地缘政治)

OceanBase 学习记录-- 建立MySQL租户,像用MySQL一样使用OB
         MongoDB 相关文章

MongoDB “升级项目” 大型连续剧(4)-- 与开发和架构沟通与扫尾

MongoDB “升级项目” 大型连续剧(3)-- 自动校对代码与注意事项

MongoDB “升级项目” 大型连续剧(2)-- 到底谁是"der"

MongoDB “升级项目”  大型连续剧(1)-- 可“生”可不升

MongoDB  大俗大雅,上来问分片真三俗 -- 4 分什么分

MongoDB 大俗大雅,高端知识讲“庸俗” --3 奇葩数据更新方法

MongoDB 学习建模与设计思路--统计数据更新案例

MongoDB  大俗大雅,高端的知识讲“通俗” -- 2 嵌套和引用

MongoDB  大俗大雅,高端的知识讲“低俗” -- 1 什么叫多模

MongoDB 合作考试报销活动 贴附属,MongoDB基础知识速通

MongoDB 年底活动,免费考试名额 7个公众号获得

MongoDB 使用网上妙招,直接DOWN机---清理表碎片导致的灾祸 (送书活动结束)

MongoDB 2023年度纽约 MongoDB 年度大会话题 -- MongoDB 数据模式与建模

MongoDB  双机热备那篇文章是  “毒”

MongoDB   会丢数据吗?在次补刀MongoDB  双机热备

MONGODB  ---- Austindatabases  历年文章合集

PolarDB 已经开放的课程

PolarDB 非官方课程第八节--数据库弹性弹出一片未来--结课

PolarDB 非官方课程第七节--数据备份还原瞬间完成是怎么做到的--答题领奖品

PolarDB 非官方课程第六节--数据库归档还能这么玩--答题领奖品

PolarDB 非官方课程第五节--PolarDB代理很重要吗?--答题领奖品

PolarDB 非官方课程第四节--PG实时物化视图与行列数据整合处理--答题领奖品

PolarDB 非官方课程第三节--MySQL+IMCI=性能怪兽--答题领奖品

PolarDB 非官方课程第二节--云原生架构与特有功能---答题领奖品

PolarDB 非官方课程第一节-- 用户角度怎么看PolarDB --答题领奖品

免费PolarDB云原生课程,听课“争”礼品,重塑云上知识,提高专业能力

PolarDB 相关文章

这个 PostgreSQL 让我有资本找老板要 鸡腿 鸭腿 !!

用MySQL 分区表脑子有水!从实例,业务,开发角度分析 PolarDB 使用不会像MySQL那么Low

P-MySQL SQL优化案例,反观MySQL不死没有天理

MySQL 和 PostgreSQL 可以一起快速发展,提供更多的功能?

这个MySQL说“云上自建的MySQL”都是”小垃圾“

        PolarDB MySQL 加索引卡主的整体解决方案

“PostgreSQL” 高性能主从强一致读写分离,我行,你没戏!

PostgreSQL 的搅局者问世了,杀过来了!

在被厂商围剿的DBA 求生之路 --我是老油条

POLARDB  添加字段 “卡” 住---这锅Polar不背

PolarDB 版本差异分析--外人不知道的秘密(谁是绵羊,谁是怪兽)

在被厂商围剿的DBA 求生之路 --我是老油条

PolarDB 答题拿-- 飞刀总的书、同款卫衣、T恤,来自杭州的Package(活动结束了)

PolarDB for MySQL 三大核心之一POLARFS 今天扒开它--- 嘛是火

PostgreSQL 相关文章

一个IP地址访问两个PG实例,上演“一女嫁二夫”的戏码

PostgreSQL  Hybrid能力岂非“小趴菜”数据库可比 ?

PostgreSQL 新版本就一定好--由培训现象让我做的实验

PostgreSQL “乱弹” 从索引性能到开发优化

PostgreSQL  无服务 Neon and Aurora 新技术下的新经济模式 (翻译)

PostgreSQL的"犄角旮旯"的参数捋一捋

PostgreSQL逻辑复制槽功能

PostgreSQL 扫盲贴 常用的监控分析脚本

“PostgreSQL” 高性能主从强一致读写分离,我行,你没戏!

PostgreSQL  添加索引导致崩溃,参数调整需谨慎--文档未必完全覆盖场景

PostgreSQL 的搅局者问世了,杀过来了!

PostgreSQL SQL优化用兵法,优化后提高 140倍速度

PostgreSQL 运维的难与“难”  --上海PG大会主题记录

PostgreSQL 什么都能存,什么都能塞 --- 你能成熟一点吗?

PostgreSQL 迁移用户很简单 ---  我看你的好戏

PostgreSQL 用户胡作非为只能受着 --- 警告他

全世界都在“搞” PostgreSQL ,从Oracle 得到一个“馊主意”开始
PostgreSQL 加索引系统OOM 怨我了--- 不怨你怨谁

PostgreSQL “我怎么就连个数据库都不会建?” --- 你还真不会!

病毒攻击PostgreSQL暴力破解系统,防范加固系统方案(内附分析日志脚本)

PostgreSQL 远程管理越来越简单,6个自动化脚本开胃菜

PostgreSQL 稳定性平台 PG中文社区大会--杭州来去匆匆

PostgreSQL 如何通过工具来分析PG 内存泄露

PostgreSQL  分组查询可以不进行全表扫描吗?速度提高上千倍?

POSTGRESQL --Austindatabaes 历年文章整理

PostgreSQL  查询语句开发写不好是必然,不是PG的锅

PostgreSQL  字符集乌龙导致数据查询排序的问题,与 MySQL 稳定 "PG不稳定"

PostgreSQL  Patroni 3.0 新功能规划 2023年 纽约PG 大会 (音译)

PostgreSQL   玩PG我们是认真的,vacuum 稳定性平台我们有了

PostgreSQL DBA硬扛 垃圾 “开发”,“架构师”,滥用PG 你们滚出 !(附送定期清理连接脚本)

DBA 失职导致 PostgreSQL 日志疯涨

MySQL相关文章

MySQL 条件下推与排序优化实例--MySQL8.035

青春的记忆,MySQL 30年感谢有你,再见!(译)

MySQL 8 SQL 优化两则 ---常见问题

MySQL SQL优化快速定位案例 与 优化思维导图

"DBA 是个der" 吵出MySQL主键问题多种解决方案

MySQL 怎么让自己更高级---从内存表说到了开发方式

MySQL timeout 参数可以让事务不完全回滚

MySQL 让你还用5.7 出事了吧,用着用着5.7崩了

MySQL 的SQL引擎很差吗?由一个同学提出问题引出的实验

用MySql不是MySQL, 不用MySQL都是MySQL 横批 哼哼哈哈啊啊

MYSQL  --Austindatabases 历年文章合集

临时工访谈系列

没有谁是垮掉的一代--记 第四届 OceanBase 数据库大赛

ETL 行业也够卷,云化ETL,ETL 软件不过了

SQL SERVER 系列

SQL SERVER维保AI化,从一段小故事开始

SQL SERVER 如何实现UNDO REDO 和PostgreSQL 有近亲关系吗

SQL SERVER 危险中,标题不让发,进入看详情(译)

内容概要:本文介绍了一套针对智能穿戴设备的跑步/骑行轨迹记录系统实战方案,旨在解决传统运动APP存在的定位漂移、数据断层和路径分析单一等问题。系统基于北斗+GPS双模定位、惯性测量单元(IMU)和海拔传感器,实现高精度轨迹采集,并通过卡尔曼滤波算法修正定位误差,在信号弱环境下利用惯性导航补位,确保轨迹连续性。系统支持跑步与骑行两种场景的差异化功能,包括实时轨迹记录、多维度路径分析(如配速、坡度、能耗)、数据可视化(地图标注、曲线图、3D回放)、异常提醒及智能优化建议,并可通过蓝牙/Wi-Fi同步数据至手机APP,支持社交分享与业软件导出。技术架构涵盖硬件层、设备端与手机端软件层以及云端数据存储,强调低功耗设计与用户体验优化。经过实测验证,系统在定位精度、续航能力和场景识别准确率方面均达到预期指标,具备良好的实用性和扩展性。; 适合人群:具备一定嵌入式开发或移动应用开发经验,熟悉物联网、传感器融合与数据可视化的技术人员,尤其是从事智能穿戴设备、运动健康类产品研发的工程师和产品经理;也适合高校相关业学生作为项目实践参考。; 使用场景及目标:① 开发高精度运动轨迹记录功能,解决GPS漂移与断点问题;② 实现跑步与骑行场景下的差异化数据分析与个性化反馈;③ 构建完整的“终端采集-手机展示-云端存储”系统闭环,支持社交互动与商业拓展;④ 掌握低功耗优化、多源数据融合、动态功耗调节等关键技术在穿戴设备中的落地应用。; 阅读建议:此资源以真实项目为导向,不仅提供详细的技术实现路径,还包含硬件选型、测试验证与商业扩展思路,建议读者结合自身开发环境,逐步实现各模块功能,重点关注定位优化算法、功耗控制策略与跨平台数据同步机制的设计与调优。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值