8 操作系统--I/O

 5.1.1 I/O设备的概念和分类

什么是I/O设备?

"I/O"就是"输入/输出"(Input/Output)

I/O设备就是可以将数据输入到计算机,或者可以接收计算机输出数据的外部设备,属于计算机中的硬件部件

UNIX系统将外部设备抽象为一种特殊的文件,用户可以使用与文件操作相同的方式对外部设备进行操作

  • Write操作:向外部设备写出数据
  • Read操作:从外部设备读入数据

I/O设备的分类

按使用特性

按传输速率

按信息交换的单位

总结

5.1.2 I/O控制器

I/O设备的机械部件 

I/O设备的机械部件主要用来执行具体的I/O操作。

  • 如我们看得见摸得着的鼠标/键盘的按钮;显示器的LED屏;移动硬盘的磁臂、磁盘盘面

I/O设备的电子部件通常是一块插入主板扩充槽的印刷电路板

I/O控制器(I/O设备的电子部件) 

CPU无法直接控制I/O设备的机械部件,因此I/O设备还要有一个电子部件作为CPU和I/O设备机械部件之间的"中介",用于实现CPU对设备的控制

这个电子部件就是I/O控制器,又称设备控制器。CPU可控制I/O控制器,又由I/O控制器来控制设备的机械部件。

I/O控制器的功能 

I/O控制器的组成

  1. 一个设备控制器可能会对应多个设备
  2. 数据寄存器、控制寄存器、状态寄存器可能有多个(如:每个控制/状态寄存器对应一个具体的设备),,且这些寄存器都要有相应的地址,才能方便CPU操作。有的计算机会让这些寄存器占用内存地址的一部分,称为内存映像I/O;另一些计算机则采用I/O专用地址,即寄存器独立编址

内存映像I/O vs 寄存器独立编址 

控制器对CPU屏蔽了设备的内部结构,使得设备对于CPU而言,是由一组设备寄存器组成的。

设备寄存器包括:

  • 操作方式寄存、
  • 命令寄存器(如启动、传输、配置)
  • 数据寄存器和状态寄存器(记录当前设备的状态)

为了使CPU能够识别这些设备寄存器,需要对其进行编址,即I/O端口

I/O端口的编址包括两种:

  • 与内存中的物理单元统一编址(内存映像I/O)
  • 独立于内存编址(寄存器独立编址)

CPU和设备控制器可以通过I/O端口唯一确定设备的地址

总结 

5.1.3 I/O控制方式

 程序直接控制方式

  1. CPU向控制器发出读指令。于是设备启动,并且状态寄存器设为1(未就绪)
  2. 轮询检查控制器的状态(其实就是在不断执行程序的循环,若状态位一直是1,说明设备还没准备好要输入的数据.于是CPU会不断轮询)
  3. 输入设备准备好数据后将数据传给控制器,并报告自身状态
  4. 控制器将输入的数据放到寄存器中,并将状态改为0(已就绪)
  5. CPU发现设备已就绪,即可将数据寄存器中的内容读入CPU的寄存器中的内容放入内存

CPU的干预频率

  • 很频繁,I/O操作开始之前、完成之后都需要CPU介入,并且在等待I/O完成的过程中CPU需要不断地轮询检查

数据传送单位

  • 每次读/写一个字

数据的流向

  • 读操作(数据输入):I/O设备->CPU(CPU寄存器)->内存
  • 写操作(数据输出):内存->CPU(CPU寄存器)->I/O设备
  • 每个字的读/写都需要CPU的帮助

主要缺点和主要优点:

优点:

  • 实现简单。在读/写指令之后,加上实现循环检查的一系列指令即可(因此才称为"程序的直接控制方式)

缺点:

  • CPU和I/O设备只能串行工作,CPU需要一直轮询检查,长期处于"忙等"状态,CPU利用率低

中断驱动方式

引入中断机制。由于I/O设备速度很慢,因此在CPU发出读/写命令后,可将等待I/O的进程阻塞,先切换到别的进程执行。当I/O完成后,控制器会向CPU发出一个中断信号,CPU检测到中断信号后,会保存当前进程的运行环境信息,转去执行中断处理程序处理该中断。处理中断的过程中,CPU从I/O控制器读一个字的数据传送到CPU寄存器,再写入主存。接着,CPU恢复等待I/O的进程(或其他进程)的运行环境,然后继续执行。

注意:

  1. CPU在每个指令周期的末尾检查中断
  2. 中断处理过程中需要保存、恢复进程的运行环境

这个过程是需要一定时间开销的。可见,如果中断发生的频率太高,也会降低系统性能

CPU干预的频率

  • 每次I/O操作开始之前、完成之后需要CPU介入
  • 等待I/O完成的过程中CPU可以切换到别的进程执行

数据传送的单位

  • 每次读/写一个字

数据的流向

  • 读操作(数据输入):I/O设备->CPU->内存
  • 写操作(数据输出):内存->CPU->I/O设备

主要缺点和优点

优点:

  • 与"程序直接控制方式"相比,在"中断驱动方式"中,I/O控制器会通过中断信号主动报告I/O已完成,CPU不再需要不停地轮询CPU和I/O设备可并行工作,CPU利用率得到明显提升。

缺点:

  • 每个字在I/O设备与内存之间的传输,都需要经过CPU。而频繁的中断处理会消耗较多的CPU时间

DMA方式 

与"中断驱动方式"相比,DMA方式(Direct Memory Access,直接存储器存取。主要用于块设备的I/O控制)有这样几个改进:

  • 数据的传输单位是"块"。不再是一个字、一个字的传送
  • 数据的流向是从设备直接放入内存,或者从内存到设备。不再需要CPU作为"快递小哥"
  • 仅在传送一个或多个数据块的开始和结束时,才需要CPU干预

DMA控制器

CPU的干预频率:

  • 仅在传送一个或多个数据块开始和结束时,才需要CPU的干预

数据传送的单位

  • 每次读/写一个或多个块(注意:每次读写的只能是连续的多个块,且这些块读入内存后在内存中也必须是连续的)

数据的流向(不再需要经过CPU)

  • 读操作(数据输入):I/O设备->内存
  • 写操作(数据输出):内存->I/O设备

主要缺点和主要优点

优点:

  • 数据传输以"块"为单位,CPU介入频率进一步降低。数据的传输不再需要先经过CPU再写入内存,数据传输效率进一步增加。CPU和I/O设备的并行性得到提升

缺点:

  • 如果要读/写多个离散存储的数据块,或者要将数据分别写到不同的内存区域时,CPU要分别发出多条I/O指令,进行多次中断处理才能完成

通道控制方式

通道:一种硬件,可理解为是"弱鸡版的CPU"。通道可以识别并执行一系列通道指令

通道相当于一个功能单纯、专门用于处理I/O操作的处理机

与CPU相比,通道可以执行的指令很单一,并且通道程序是放在主机内存中的,也就是说通道与CPU共享内存

CPU干预的频率

  • 极低,通道会根据CPU的指示执行相应的通道程序,只要完成一组数据块的读/写之后才需要发出中断信号,请求CPU干预

数据的流向(在通道的控制下进行)

  • 读操作(数据输入):I/O设备->内存
  • 写操作(数据输出):内存->I/O设备

主要缺点和主要优点

  • 缺点:实现复杂,需要专门的通道硬件支持
  • 优点:CPU、通道、I/O设备可并行工作,资源利用率很高

总结

 5.1.4 I/O软件层次结构

用户层软件 

设备独立性软件 

设备独立性软件,又称为设备无关性软件。与设备的硬件特性无关的功能几乎都在这一层实现

主要实现的功能:

  1. 向上层提供统一的接口(如read/write系统调用)
  2. 设备的保护,原理类似于文件保护。设备被看做是一种特殊的文件,不同用户对各个文件的访问权限是不一样的,同理,对设备的访问权限也不一样
  3. 差错处理,设备独立性软件需要对一些设备的错误进行处理
  4. 设备的分配与回收
  5. 数据缓冲区管理,可以通过缓冲技术屏蔽设备之间数据交换单位大小和传输速度的差异
  6. 建立逻辑设备名到物理设备名的映射关系:根据设备类型选择调用相应的驱动程序
  • 用户或用户层软件发出I/O操作相关系统调用的系统调用时,需要指明此次要操作的I/O设备的逻辑设备名(eg:去学校打印店打印时,需要选择打印机1/打印机2/打印机3,其实这些都是逻辑设备名)
  • 设备独立性软件需要通过"逻辑设备表(LUT,Logical Unit Table)"来确定逻辑设备对应的物理设备,并找到该设备对应的设备驱动程序

操作系统可以采用两种方式管理逻辑设备表(LUT):

  • 第一种方式,整个系统只设置一张LUT,这意味着所有用户不能使用相同的逻辑设备名,因此这种方式只适用于单用户操作系统
  • 第二种方式,为每个用户设置一张LUT,各个用户使用的逻辑设备名可以重复,适用于多用户操作系统。系统会在用户登录时为其建立一个用户管理进程,而LUT就存放在用户管理进程的PCB中

思考:为什么不同类型的I/O设备需要有不同的驱动程序处理?

  •  各式各样的设备,外形不同,其内部的电子部件(I/O控制器)也有可能不同

如:数据寄存器的个数,以及状态的标记位

eg:佳能打印机的厂家规定状态寄存器为0代表空闲,1代表忙碌。有两个数据寄存器

惠普打印机的厂家规定状态寄存器为1代表空闲,0代表忙碌。有一个数据寄存器

不同设备的内部硬件特性也不同,这些特性只有厂家才知道,因此厂家须提供与设备相对应的驱动程序,CPU执行驱动程序的指令序列,来完成设置设备寄存器,检查设备状态等工作

设备驱动程序

中断驱动程序

总结

 

 5.1.5 输入/输出应用程序接口&设备驱动程序接口 

输入输出应用程序接口

 

 阻塞/非阻塞/I/O

阻塞I/O:应用程序发出I/O系统调用,进程需转为阻塞态等待

  • eg:字符设备接口--从键盘读入一个字符(get)

非阻塞I/O:应用程序发出I/O系统调用,系统调用可迅速返回,进程无需阻塞等待。

  • eg:块设备接口--往磁盘写数据(write)

设备驱动程序接口

若各公司开发的设备驱动程序接口不统一,则操作系统很难调用设备驱动程序

统一标准的设备驱动程序接口:操作系统规定好设备驱动程序的接口标准,各厂商必须按要求开发设备驱动程序

不同的操作系统,对设备驱动程序接口的标准各不相同。

设备厂商必须根据操作系统的接口要求,开发相应的设备驱动程序,设备才能被使用

5.2.1 I/O核心子系统

这些功能在哪个层实现

I/O调度

I/O调度:用某种算法确定一个好的顺序来处理各个I/O请求

  • 如:磁盘调度(先来先服务算法、最短寻道优先算法、SCAN算法、C-SCAN算法、LOOK算法、C-CLOCK算法)。当多个磁盘I/O请求到来时,用某种调度算法确定满足I/O请求的顺序。
  • 同理,打印机等设备也可以用先来先服务、优先级算法、短作业优先等算法来确定I/O调度顺序。

设备保护 

  • 操作系统需要实现文件保护功能,不同的用户对各个文件有不同的访问权限(如:只读、读和写等)。
  • 在UNIX系统中,设备被看做是一种特殊的文件,每个设备也会有对于的FCB。当用户请求访问某个设备时,系统根据FCB中记录的信息来判断该用户是否有相应的访问权限,以此来实现"设备保护"的功能。

5.2.2 假脱机技术 

什么是脱机技术?

手工操作阶段:主机直接从I/O设备获得数据,由于设备速度慢,主机速度很快。人机矛盾明显,主机要浪费很多时间来等待设备

批处理阶段:引入了了脱机输入/输出技术(用磁带完成)

  • 引入脱机技术后,缓解了CPU与慢速I/O设备的速度矛盾。另一方面,即使CPU在忙碌,也可以提前将数据输入到磁带;即使慢速的输出设备正在忙碌,也可以提前将数据输出到磁带。

 假脱机技术

假脱机技术:又称为"SPOOLing技术",用软件的方式模拟脱机技术。SPOOLing系统的组成如下:

要实现SPOOLing技术,必须要有多道程序技术的支持。系统会建立"输入进程"和"输出进程"。

在输入进程的控制下,"输入缓冲区"用于暂存从输入设备输入的数据,之后再转存到输入井中

在输出进程的控制下,"输出缓冲区"用于暂存从输出井送来的数据,之后再传送到输出设备上

  • 注意:输入缓冲区和输出缓冲区是在内存中的缓冲区

 共享打印机原理分析

独占式设备:只允许各个进程串行使用的设备。一段时间内只能满足一个进程的请求。

  • 独占式设备的例子:若进程1正在使用打印机,则进程2请求使用打印机时必须阻塞等待

共享设备:允许多个进程"同时"使用的设备(宏观上同时使用,微观上可能是交替使用)。可以同时满足多个进程的使用请求。

  • 打印机是一种"独占式设备",但是可以用SPOOLing技术改造成"共享设备"

当多个用户进程提出输出打印的请求时,系统会答应它们的请求,但是并不是真正把打印机给它们,而是由假脱机管理进程为每个进程做两件事:

  • (1)在磁盘输出井中为进程申请一个空闲缓冲区(也就是说,这个缓冲区是在磁盘上的),并将要打印的数据送入其中;
  • (2)为用户进程申请一张空白的打印请求表,并将用户的打印请求填入表中(其实就是用来说明用户的打印数据存放位置等信息的),再将该表挂到假脱机文件队列请求上。

打印机空闲时,输出进程会从文件队列的队头取出一张打印请求表,并根据表中的要求将要打印的数据从输出井传送到输出缓冲区,再输出到打印机进行打印。用这种方式可以依次处理完全部的打印任务。

虽然系统中只有一台打印机,但每个进程提出打印请求时,系统都会在输出井中为其分配一个存储区(相对于分配了一个逻辑设备),使每个用户进程都觉得自己在独占一台打印机,从而实现对打印机的共享。

SPOOLing技术可以把一台物理设备虚拟成逻辑上的多台设备,可将独占式设备改造成共享设备

 总结

5.2.3 设备的分配与回收 

设备分配时应考虑的因素 

设备的固有属性

设备的固有属性可分为三种:独占设备、共享设备、虚拟设备

  • 独占设备:一个时段只能分配给一个进程(如打印机)
  • 共享设备:可同时分配给多个进程使用(如磁盘),各进程往往是宏观上同时共享使用设备,而微观上交替使用
  • 虚拟设备:使用SPOOLing技术将独占设备改造成共享设备,可同时分配给多个进程使用(如采用SPOOLing技术实现的共享打印机)

设备的分配算法 

如先来先服务、优先级高者优先、短任务优先

设备分配中的安全性 

从进程运行的安全性上考虑,设备分配有两种方式:

安全分配方式:为进程分配一个设备后就将进程阻塞,本次I/O完成后才将进程唤醒。

  • eg:考虑进程请求打印机打印输出的例子
  • 一个时段内每个进程只能使用一个设备
  • 优点:破坏了"请求和保持"条件,不会死锁(一旦进程请求了一个设备,系统会立即分配该设备,并将进程阻塞。由于进程被阻塞,它无法继续执行或请求其他资源。因此,它不会处于既持有资源又等待其他资源的状态,这就破坏了请求和保持条件)
  • 缺点:对于一个进程来说,CPU和I/O设备只能串行工作

不安全分配方式:进程发出I/O请求后,系统为其分配I/O设备,进程可继续执行,之后还可以发出新的I/O请求。只有某个I/O请求得不到满足时才将进程阻塞

  • 一个进程可以同时使用多个设备
  • 优点:进程的计算任务和I/O任务可以并行处理,使进程迅速推进
  • 缺点:有可能发生死锁(死锁避免、死锁的检测和解除)

静态分配与动态分配 

静态分配:进程运行前为其分配全部所需资源,运行结束后归还资源

  • 破坏了"请求和保持"条件,不会发生死锁

动态分配:进程运行的过程中动态申请设备资源

设备分配管理中的数据结构 

"设备、控制器、通道"之间的关系:

  • 一个通道可控制多个设备控制器,每个设备控制器可控制多个设备

设备控制表(DCT) 

设备控制表(DCT):系统为每个设备配置一张DCT,用于记录设备情况

注:"进程管理"中提到过"系统会根据阻塞原因不同,将进程PCB挂到不同的阻塞队列中"

控制器控制表(COCT) 

通道控制表(CHCT) 

 系统设备表(SDT)

设备分配的步骤 

1.根据进程请求的物理设备名查找SDT(注:物理设备名是进程请求分配设备时提供的参数)

  • 设备标识符即就是物理设备名

2.根据SDT找到DCT,若设备忙碌则将进程PCB挂到设备等待队列中,不忙碌则将设备分配给进程

3.根据DCT找到COCT,若控制器忙碌则将进程PCB挂到控制器等待队列中,不忙碌则将控制器分配给进程

4.根据COCT找到CHCT,若通道忙碌则将进程PCB挂到通道等待队列中,不忙碌则将通道分配给进程

注:只有设备、控制器、通道三者都分配成功时,这次设备分配才算成功,之后便可启动I/O设备进行数据传送

设备分配步骤的改进 

上述步骤的缺点:

  • 用户编程必须使用"物理设备名",底层细节对用户不透明,不方便编程
  • 若换了一个物理设备,则程序无法运行
  • 若进程请求的物理设备正在忙碌,则即使系统中还有其他同类型的设备,进程也必须阻塞等待

改进方法:建立逻辑设备名与物理设备名的映射机制,用户编程时只需提供逻辑设备名

1.根据进程请求的逻辑设备名查找SDT(注:用户编程时提供的逻辑设备名其实就是"设备类型")

2.查找SDT,找到用户进程指定类型的、并且空闲的设备,将其分配给该进程。操作系统在逻辑设备表(LUT)中新增一个表项

3.根据DCT找到COCT,若控制器忙碌则将进程PCB挂到控制器等待队列中,不忙碌则将控制器分配给进程

4.根据COCT找到CHCT,若通道忙碌则将进程PCB挂到通道等待队列中,不忙碌则将通道分配给进程

逻辑设备表的设置问题:

  • 整个系统只有一张LUT:各用户所用的逻辑设备名不允许重复,适用于单用户操作系统
  • 每个用户一张LUT:不同用户的逻辑设备名可重复,适用于多用户操作系统

总结 

5.2.4 缓冲区管理

缓冲区的定义和作用

缓冲区是一个存储区域,可以由专门的硬件寄存器组成,也可以利用内存作为缓冲区

  • 使用硬件作为缓冲区成本较高,容量也较小,一般仅用在对速度要求非常高的场合(如存储器管理所用的联想寄存器,由于对页表的访问频率极高,因此使用速度很快的联想寄存器来存放页表项的副本)
  • 一般情况下,更多的是利用内存作为缓冲区,"设备独立性软件"的缓冲区管理就是要组织管理好这些缓冲区

下面介绍的是"内存作为缓冲区"

缓冲区的作用:

*缓和CPU与I/O设备之间速度不匹配的矛盾

*减少对CPU的中断频率,放宽对CPU中断相应时间的限制

*解决数据粒度不匹配的问题

如:输出进程每次可以生成一块数据,但I/O设备每次只能输出一个字符

*提高CPU与I/O设备之间的并行性​​​

单缓冲

假设某用户进程请求某种块设备读入若干块的数据。若采用单缓冲的策略,操作系统会在主存中为其分配一个缓冲区(若题目没有特别说明,一个缓冲区的大小就是一个块)

注意:

  • 当缓冲区非空时,不能往缓冲区冲入数据,只能从缓冲区把数据传出;
  • 当缓冲区为空时,可以往缓冲区冲入数据,但必须把缓冲区充满以后,才能从缓冲区把数据传出

  • 假设初始状态:工作区满,缓冲区空

第一种情况:T>C

第二种情况:T<C

结论:采用单缓冲策略,处理一块数据平均耗时Max(C,T)+M

  • T:块设备数据数据到缓冲区耗时
  • C:CPU处理一块数据耗时
  • M:缓冲区传送数据到工作区耗时

 双缓冲

假设某用户进程请求某种块设备读入若干块的数据。若采用双缓冲的策略,操作系统会在主存中为其分配两个缓冲区(若题目中没有特别说明,一个缓冲区的大小就是一个块)

假设初始状态:工作区空,其中一个缓冲区满,另一个缓冲区空

  • 只有一个块设备,不可能两个缓冲区同时满

第一种情况:T>C+M

第二种情况:T<C+M

结论:采用双缓冲策略,处理一个数据块的平均耗时为Max(T,M+C)

 使用单/双缓冲在通信时的区别

两台机器之间通信时,可以设置缓冲区用于数据的发送和接受

显然,若两个相互通信的机器只设置单缓冲区,在任一时刻只能实现数据的单向传输

 若两个相互通信的机器设置双缓冲区,则同一时刻可以实现双向的数据传输

 循环缓冲区

将多个大小相等的缓冲区链接成一个循环队列

注:以下图示中,橙色表示已充满的缓冲区,绿色表示空缓冲区

缓冲池

缓冲池由系统中共用的缓冲区组成。这些缓冲区按使用状况可以分为:空缓冲队列、装满输入数据的缓冲队列(输入队列)、装满输出数据的缓冲队列(输出队列)。

另外,根据一个缓冲区在实际运算中扮演的功能不同,又设置了四种工作缓冲区:

  • 用于收容输入数据的工作缓冲区(hin)
  • 用于提取输入数据的工作缓冲区(sin)
  • 用于收容输出数据的工作缓冲区(hout)
  • 用于提取输出数据的工作缓冲区(sout)

 

 

总结 

5.3.1 磁盘的结构 

磁盘、磁道、扇区 

如何在磁盘中读/写数据

盘面、柱面 

磁盘的物理地址

可用(柱面号,盘面号,扇区号)来定位任意一个"磁盘块"。在"文件的物理结构"小节中,我们经常提到文件数据存放在外存中的几号块,这个块号就可用转换成(柱面号,盘面号,扇区号)的地址形式。

可根据该地址读取一个"块":

  1. 根据"柱面号"移动磁臂,让磁头指向指定柱面;
  2. 激活指定盘面对应的磁头;
  3. 磁盘旋转的过程中,指定的扇区会从磁头下面划过,这样就完成了对指定扇区的读/写。

磁盘的分类 

按磁头是否可以移动:

  • 磁头可以移动的称为活动头磁盘。磁臂可以来回伸缩来带动磁头定位磁道
  • 磁头不可以移动的称为固定头磁盘。这种磁盘中每个磁道有一个磁头

按盘片是否可以更换划分:

  • 盘片可以更换的称为可换盘磁盘
  • 盘片不可以更换的称为固定盘磁盘

 总结

5.3.2 磁盘调度算法 

一次磁盘读/写操作需要的时间 

寻找时间:

寻找时间(寻道时间)Ts:在读/写数据前,将磁头移动到指定磁道所花的时间

  1. 启动磁头臂是需要时间的。假设耗时为s;
  2. 移动磁头也是需要时间的。假设磁头匀速移动,每跨越一个磁道耗时为m,总共需要跨越n条磁道。则:寻道时间Ts=s+m*n

现在的硬盘移动一个磁道大约需要0.2ms,磁臂启动时间约为2ms

延迟时间:

延迟时间Tr:通过旋转磁盘,使磁头定位到目标扇区所需要的时间。设磁盘转速为r(单位:转/秒,或转/分),则平均所需的延迟时间Tr=(1/2)*(1/r)=1/2r

1/r就是转一圈需要的时间。找到目标扇区平均需要转半圈,因此再乘以1/2

硬盘的典型转速为5400转/分,或7200转/分

传输时间:

传输时间Tt:从磁盘读出或向磁盘写入数据所经历的时间,假设磁盘转速为r,此次读/写的字节数为b,每个磁道上的字节数为N。则:

传输时间Tt=(1/r)*(b/N)=b/(rN)

每个磁道要可存N字节的数据,因此b字节的数据需要b/N个磁道才能存储。而读/写一个磁道所需的时间刚好又是抓一圈所需要的时间1/r

延迟时间和传输时间都与磁盘转速相关,且为线性相关。而转速是硬件的固有属性,因此操作系统也无法优化延迟时间和传输时间

操作系统是在寻道时间上面下功夫

 先来先服务算法(FSFS)

根据进程请求访问磁盘的先后顺序进行调度

假设磁头的初始位置是100号磁道,有多个进程先后陆续地请求访问55,58,39,18,90,160,150,38,184号磁道

按照FCFS的规则,按照请求到达的顺序,磁头需要依次移动到

55,58,39,18,90,160,150,38,184号磁道

磁头总共移动了

(100-55)+(58-55)+(58-39)+(39-18)+(90-18)+(160-90)+(160-150)+(150-38)+(184-38)

=45+3+19+21+72+70+10+112+146=498个磁道

响应一个请求平均需要移动498/9=55.3个磁道(平均寻找长度)

优点:

  • 公平;
  • 如果请求访问的磁道比较集中的话,算法性能还算过的去;

缺点:

  • 如果有大量进程竞争使用磁盘,请求访问的磁道很分散,则FCFS在性能上很差,寻道时间长

最短寻找时间优先算法(SSTF)

SSTF算法会优先处理的磁道是与当前磁头最近的磁道。可以保证每次的寻道时间最短,但是并不能保证总的寻道时间最短(其实就是贪心算法的思想,这是选择眼前最优,但是总体未必最优)

假设磁头的初始位置是100号磁道,有多个进程先后陆续地请求访问55,58,39,18,90,160,150,38,184号磁道

磁头总共移动了(100-18)+(184-18)=82+166=248个磁道

(100-90)+(90-58)+(58-55)+(55-39)+(39-38)+(38-18)+(150-18)+(160-150)+(184-160)

响应一个请求平均需要移动248/9=27.6个磁道(平均寻道长度)

优点:性能较好,平均寻道时间短

缺点:可能产生"饥饿"现象

Eg:本例中,如果在处理18号磁道的访问请求时又来了一个38号磁道的访问请求,处理38号磁道的访问请求时又来了一个18号磁道的访问请求。如果有源源不断的18号,38号磁道的访问请求到来的话,150,160,184号磁道的访问请求就永远得不到满足,从而产生"饥饿"现象(产生饥饿的原因在于:磁头在一个小小的区域内来回来去地移动)

扫描算法(SCAN)

SSTF算法产生饥饿的原因在于:磁头有可能在一个小区域内来回来去地移动。为了防止这个问题,可以规定,只有磁头移动到最外侧的磁道的时候才能往内移动,移动到最内侧磁道的时候才能往外移动。这就是扫描算法(SCAN)的思想。由于磁头移动的方式很像电梯,因此也叫电梯算法

假设某磁盘的磁道为0~200号,磁头的初始位置是100号磁道,且此时磁头正在往磁道号增大的方向移动,有多个进程先后陆续地请求访问55,58,39,18,90,160,150,38,184号磁道

磁头总共移动了(200-100)+(200-18)=282个磁道

响应一个请求平均需要移动282/9=31.3个磁道(平均寻道长度)

优点:性能较好,平均寻道时间较短,不会产生饥饿现象

缺点:

  • 只有到达最边上的磁道时才能改变磁头移动方向,事实上,处理了184号磁道的访问请求之后就不需要再往右移动磁头了
  • SCAN算法对于各个位置磁道的响应频率不平均(如:假设此时磁头正在往右移动,且刚处理过90号磁道,那么下次处理90号磁道的请求就需要等待磁头移动很长一段距离;而响应了184号磁道的请求之后,很快又可以再次响应184号磁道的请求了)

LOOK调度算法

循环扫描算法(c-SCAN)

C-LOOK算法

总结

 5.3.3 减少磁盘延迟的方法

减少延迟时间的方法--交替编号 

磁盘地址结构的设计 

 

减少延迟时间的方法--错误命名

 

 总结

 5.3.4 磁盘的管理

磁盘初始化

 引导块

 

 坏块

透明:不可见

不透明:可见

 总结

5.3.5 固态硬盘SSD

 

U盘:也是使用闪存技术

 固态硬盘的结构

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值