prefetch相关论文阅读笔记
论文1. Revisiting Data Prefetching for Database Systems with Machine Learning Techniques(2021)
本文认为访问模式(access pattern)只有三种:(1) locality within a transaction, (2) random access by transactions and (3) sequential accesses by long queries。以本文的观点,是不存在事件之间的联系的,因此下文机器学习模型的训练和预测都是以事件为单位。这三种访问模式是否涵盖全面可以思考一下。
本文对于机器学习预取模型的功能描述是:输入前N-1个访问的页,模型能够预测第N个访问的页。
文章提出的思路被概括为如下几个步骤:数据准备,输入转换,表示学习和预测。
数据准备就是把访问序列按照transaction分割好,作为训练输入。
由于页的地址空间很大,用地址直接表示页会存在表示稀疏问题,于是地址被划分为许多个extent单元,访问序列中的每一个页用如下方式表示:页所在的extent号,和页在extent内的地址,这样大大缩小了表示空间,这就是输入转换。
表示学习就是神经网络出场的步骤。这里神经网络的结构是embedding层+DNN/1d-CNN/RNN/LSTM+全连接(维度转换)+softmax(-> 输出)。输入为一个一定长度的访问序列,输出为一个长度为N+M的向量,N是extent的数目,M是一个extent内含有的页的数目,所以向量前N项的值代表接下来要访问的页位于各个e

本文探讨了两篇关于数据预取的论文,其中一篇利用机器学习技术改进数据库系统的预取策略,提出了访问模式分类和神经网络模型。另一篇则是在传统预取策略基础上,提出层次神经模型,解决地址空间稀疏问题并考虑多义性问题,同时对预取标签的定义进行了深入讨论。
最低0.47元/天 解锁文章
1948





