3、计算机与操作系统:深入解析硬件与软件协同工作原理

计算机与操作系统:深入解析硬件与软件协同工作原理

1. 缓存与主存大小

缓存和主存是计算机存储系统的重要组成部分,不同类型的缓存和主存具有不同的大小,其典型大小如下表所示:
| 缓存类型 | 大小 |
| — | — |
| 内部缓冲区 | 0.031 KB (32 Bytes) |
| L1 缓存 | 4 KB — 32 KB |
| L2 缓存 | 512 KB — 4 MB |
| 主存 | 128 MB — 1 GB |

缓存技术在软件和硬件中都非常有用,上述概念同样适用于软件缓存。

2. 多处理器与缓存一致性

为了构建更强大的计算机,可以在计算机中使用多个处理器。对称多处理器(SMP)计算机就包含多个处理器,其型号多样,从小型的披萨盒大小(最多支持四个处理器)到冰箱大小(最多可容纳 64 个处理器)不等。在 SMP 中,所有处理器都是相同的,并且平等地共享内存和 I/O 等资源。

然而,SMP 中的多个处理器通常不共享缓存,每个处理器都有自己的私有缓存,这就引入了缓存一致性的问题。当一个处理器写入的数据可能会停留在其缓存中,或者即使写入到内存中,另一个处理器的缓存中可能仍然存在旧的、过时的副本。这样,从不同处理器读取相同的数据地址时,可能会得到不同的数据。

为了解决缓存一致性问题,有两种常见的设计:
- 总线窥探协议 :使用特殊的硬件“总线窥探器”持续监控内存总线。当总线窥探器检测到一个处理器发出数据写入请求时,它会使所有其他缓存中对应的过时数据无效或丢弃。这样,从处理器的访问角度来看,缓存数据始终保

根据原作 https://pan.quark.cn/s/459657bcfd45 的源码改编 Classic-ML-Methods-Algo 引言 建立这个项目,是为了梳理和总结传统机器学习(Machine Learning)方法(methods)或者算法(algo),和各位同仁相互学习交流. 现在的深度学习本质上来自于传统的神经网络模型,很大程度上是传统机器学习的延续,同时也在不少时候需要结合传统方法来实现. 任何机器学习方法基本的流程结构都是通用的;使用的评价方法也基本通用;使用的一些数学知识也是通用的. 本文在梳理传统机器学习方法算法的同时也会顺便补充这些流程,数学上的知识以供参考. 机器学习 机器学习是人工智能(Artificial Intelligence)的一个分支,也是实现人工智能最重要的手段.区别于传统的基于规则(rule-based)的算法,机器学习可以从数据中获取知识,从而实现规定的任务[Ian Goodfellow and Yoshua Bengio and Aaron Courville的Deep Learning].这些知识可以分为四种: 总结(summarization) 预测(prediction) 估计(estimation) 假想验证(hypothesis testing) 机器学习主要关心的是预测[Varian在Big Data : New Tricks for Econometrics],预测的可以是连续性的输出变量,分类,聚类或者物品之间的有趣关联. 机器学习分类 根据数据配置(setting,是否有标签,可以是连续的也可以是离散的)和任务目标,我们可以将机器学习方法分为四种: 无监督(unsupervised) 训练数据没有给定...
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值