MySQL · 8.0版本更新 · 性能优化篇

摘要: 本文主要总结下MySQL在8.0版本和性能相关的一些改动,随着新的小版本的发布,本文将不断进行更新,直到正式GA。 已更新版本MySQL 8.0.0MySQL 8.0.0 WL#9387: InnoDB: Group purging of rows by table ID 这个问题最早是faceb...


本文主要总结下MySQL在8.0版本和性能相关的一些改动,随着新的小版本的发布,本文将不断进行更新,直到正式GA。




MySQL 8.0.0


WL#9387: InnoDB: Group purging of rows by table ID


这个问题最早是facebook的工程师Domas报的一个bug,InnoDB使用多线程来进行Undo Purge操作,但分配undo的策略不太合理,直接轮询分配。这意味着如果从一张表上删除大量数据,这N个purge线程可能产生大量的索引锁冲突(例如索引页合并及重组织)


在WL#9387中,在parse undo log时,通过table_id进行分组存储,在分发时确保同一个table id的记录被分配给同一个线程。(参考函数 trx_purge_attach_undo_recs)


当然这也意味着合理的不会产生冲突的单表操作, 无法利用到多线程purge了,也算是一个弊端。


WL#8423: InnoDB: Remove the buffer pool mutex


这个算是众望所归的改进了,由Percona贡献的补丁(bug#75534),主要是对InnoDB的buffer pool mutex这个大锁进行了拆分,降低锁冲突:




分配空闲block(buf_LRU_get_free_block):


  • 从free list获取: buf_pool_t::free_list_mutex

  • 从unzip_lru/lru上驱逐一个空闲page,需要buf_pool_t::LRU_list_mutex


批量扫描LRU(buf_do_LRU_batch): buf_pool_t::LRU_list_mutex


批量扫描FLUSH_LIST(buf_do_flush_list_batch): buf_pool_t::flush_list_mutex


脏页加入到flush_list(buf_flush_insert_into_flush_list): buf_pool_t::flush_list_mutex


脏页写回磁盘后,从flush list上移除(buf_flush_write_complete): buf_pool_t::flush_state_mutex/flush_list_mutex


从LRU上驱逐Page(buf_LRU_free_page):buf_pool_t::LRU_list_mutex, 及buf_pool_t::free_list_mutex(buf_LRU_block_free_non_file_page)


buf_flush_LRU_list_batch 使用mutex_enter_nowait 来获取block锁,如果获取失败,说明正被其他session占用,忽略该block.


有些变量的修改从通过buf_pool_t::mutex保护,修改成通过memory barrior来保护(os_rmb or os_wmb), 例如下面几个函数中均有体现:


btr_search_enable()

buf_resize_thread()

buf_get_withdraw_depth()

buf_LRU_get_free_block()


通过对锁的拆分,降低了全局大锁的竞争,提升了buffer pool的扩展性,这个特性其实在Percona Server中很多年前就有了, 但直到MySQL8.0版本才合并进来。


WL#7170: InnoDB buffer estimates for tables and indexes


主要是用于为优化器提供更准确的信息,即数据是存在与磁盘还是内存中, 这样优化器可以更准确的做出代价计算。


增加一个全局对象(buf_stat_per_index_t)来管理所有的索引页计数


为了避免引入新的全局锁开销,实现并使用一个lock-free的hash结构("include/ut0lock_free_hash.h)来存储索引信息,key值为索引id。(目前索引id具有唯一性,但不排除未来可能发生改变)。


增加计数:


1. Page刚从磁盘读入内存 (buf_page_io_complete --> buf_page_monitor)

2. 创建一个新的page (btr_page_create)


递减计数:Page从LRU上释放时进行递减(buf_LRU_block_remove_hashed)


增加新的information_schema.innodb_cached_indexs 打印每个索引在内存中的page个数,其结构如下:


mysql> show create table INNODB_CACHED_INDEXES\G

*************************** 1. row ***************************

       Table: INNODB_CACHED_INDEXES

Create Table: CREATE TEMPORARY TABLE `INNODB_CACHED_INDEXES` (

  `SPACE_ID` int(11) unsigned NOT NULL DEFAULT '0',

  `INDEX_ID` bigint(21) unsigned NOT NULL DEFAULT '0',

  `N_CACHED_PAGES` bigint(21) unsigned NOT NULL DEFAULT '0'

) ENGINE=MEMORY DEFAULT CHARSET=utf8

1 row in set (0.00 sec)


### 和表名/索引名关联


SELECT

    tables.name AS table_name,

    indexes.name AS index_name,

    cached.n_cached_pages AS n_cached_pages

FROM

    information_schema.innodb_cached_indexes AS cached,

    information_schema.innodb_sys_indexes AS indexes,

    information_schema.innodb_sys_tables AS tables

WHERE

    cached.index_id = indexes.index_id

        AND

    indexes.table_id = tables.table_id;


相关worklog: WL#7168: API for estimates for how much of table and index data that is in memory buffer


WL#9383: INNODB: ADD AN OPTION TO TURN OFF/ON DEADLOCK CHECKER


增加选项,可以动态关闭死锁检测,这对诸如热点更新这样的场景效果显著,之前已专门写了篇博客,感兴趣的自取


Bug#77094


这个优化来自alisql的贡献,主要是优化了InnoDB Redo的扩展性问题,通过双buffer机制,允许在写日志到磁盘的同时,也允许进行mtr commit,具体参阅我写的这篇月报


WL#7093: Optimizer provides InnoDB with a bigger buffer


为了减少对Btree的锁占用,InnoDB在读取数据时实际上是有一个小的缓存buffer。对于连续记录扫描,InnoDB在满足比较严格的条件时采用row cache的方式连续读取8条记录(并将记录格式转换成MySQL Format),存储在线程私有的row_prebuilt_t::fetch_cache中;这样一次寻路就可以获取多条记录,在server层处理完一条记录后,可以直接从cache中取数据而无需再次寻路,直到cache中数据取完,再进行下一轮。


在WL#7093中引入了新的接口,由于优化器可以估算可能读取的行数,因此可以提供给存储引擎一个更合适大小的row buffer来存储需要的数据。大批量的连续数据扫描的性能将受益于更大的record buffer。


Record buffer由优化器来自动决定是否开启,增加新的类Record_buffer进行管理, Record buffer的大小最大不超过128KB, 目前是hard code的,不可以配置。


判断及分配record buffer函数: set_record_buffer, 并通过新的API接口(handler::ha_set_record_buffer)传到引擎层


buffer本身是引擎无关的,在sever层分配,通过handler成员m_record_buffer传递到引擎层。


增加新的接口,判断是否支持Record buffer, 目前仅InnoDB支持,需要满足如下条件 (ref set_record_buffer):


  • access type 不是 ref, ref_or_null, index_merge, range, index 或者ALL

  • 不是临时表

  • 不是loose index scan

  • 进入InnoDB引擎层判断((row_prebuilt_t::can_prefetch_records))


       return select_lock_type == LOCK_NONE // 只读查询

                && !m_no_prefetch   // 允许prefetch

                && !templ_contains_blob // 没有BLOB, TEXT, JSON, GEOMETRY这些大列

                && !templ_contains_fixed_point // 不是空间数据类型DATA_POINT

                && !clust_index_was_generated   // 需要用户定义的primary key 或者唯一索引(被隐式的用作Pk)

                && !used_in_HANDLER // 不是通过HANDLER访问的

                && !innodb_api // 不是通过类似innodb memcached访问的

                && template_type != ROW_MYSQL_DUMMY_TEMPLATE //不是check table

                && !in_fts_query; // 不是全文索引查询


在InnoDB中,当record buffer被配置时,就使用server层提供的record buffer,而不是row_prebuilt_t::fetch_cache


官方博客对此改进的介绍:http://mysqlserverteam.com/mysql-8-0-faster-batch-record-retrieval/


WL#9250: Split LOCK_thd_list and LOCK_thd_remove mutexes


该Worklog的目的是改进短连接场景下的性能,对thd list的操作可能导致比较高的锁竞争。


解决方案也比较传统,就是进行分区,将链表thd_list划分成多个数组,目前为8个分区,相应的锁LOCK_thd_remove和LOCK_thd_list锁也进行了分区。


转自:云栖社区 作者:zhaiwx_yinfeng

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值