导图社区 王道考研-操作系统
计算机考研需要复习的内容非常的多,今天就带来学霸整理的王道考研的学习笔记,分享的就是操作系统的思维导图,还在为考研刷题苦恼的小伙伴,赶紧来试一试吧~
编辑于2022-10-18 17:33:54 江苏省王道考研 操作系统学习笔记 ——学霸考研——
第一章 操作系统概述
操作系统的基本概念
概念(定义)
操作系统(Operating System, OS)是指控制和管理整个计算机系统的硬件和软件资源,并合理地组织调度计算机的工作和资源的分配;以提供给用户和其他软件方便的接口和环境;它是计算机系统中最基本的系统软件
操作系统是系统资源的管理者
向上层提供方便易用的服务
是最接近硬件的一层软件
功能和目标
资源的管理者
处理机管理
存储器管理
文件管理
设备管理
向上层提供服务
给普通用户用的
GUI用户图形界面
如Windows、安卓、ios的图形化操作界面
命令接口
用户可直接使用
联机命令接口(交互式命令接口)
特点:用户说一句,系统跟着做一句
脱机命令接口(批处理命令接口)
特点:用户说一堆,系统跟着做一堆
给软件/程序员用的
程序接口
即“系统调用(广义指令)”,用户通过程序间接使用
对硬件机器的拓展
扩充机器
没有任何软件支持的计算机称为裸机
通常把覆盖了软件的机器称为扩充机器,又称之为虚拟机
目标
安全,高效
特征
并发
并发:指两个或多个事件在同一时间间隔内发生,这些事件宏观上是同时发生的,但微观上是交替发生的
并行:指两个或多个时间在同一时刻发生
操作系统的并发性指计算机系统中“同时”运行着多个程序,这些程序宏观上是同时运行着的,而微观上是交替运行的
操作系统和程序并发是一起诞生的
重要考点
单核CPU同一时刻只能执行一个程序,各个程序只能并发地执行
多核CPU同一时刻可以同时执行多个程序,多个程序可以并行地执行
注意区分
共享
共享即资源共享,是指系统中的资源可供内存中多个并发执行的进程共同使用
互斥共享方式
系统中的某些资源,虽然可以提供给多个进程使用,但一个时间段内只允许一个进程访问该资源
同时共享方式
系统中的某些资源,允许一个时间段内由多个进程“同时”对它们进行访问
虚拟
虚拟是指把一个物理上的实体变为若干个逻辑上的对应物,物理实体是实际存在的,而逻辑对应物是用户感受到的
异步
异步是指,在多道程序环境下,允许多个程序并发执行,但由于资源有限,进程的执行不是一贯到底的,二十走走停停,以不可预知的速度向前推进,这就是进程的异步性
重要考点
理解并发和并行的区别
并发和共享互为存在条件
没有并发和共享,就谈不上虚拟和异步,因此并发和共享是操作系统的两个最基本的特征
两个最基本的特征,二者互为存在条件
发展和分类
手工操作阶段
主要缺点:用户独占全机,人机速度矛盾导致资源利用率极低
批处理阶段
单道批处理阶段
引入脱机输入/输出技术(用外围机+磁带完成),并由监督程序负责控制作业的输入输出
主要优点:缓解了一定程度的人机速度矛盾,资源利用率有所提升
主要缺点:内存中仅能有一道程序运行,只有该程序运行结束之后才能调入下一道程序。CPU有大量的时间是在空闲等待I/O完成,资源利用率依然很低
多道批处理阶段(操作系统开始出现)
每次往内存中读入多道程序
操作系统正式诞生,用于支持多道程序并发运行
主要优点:多道程序并发执行,共享计算机资源。资源利用率大幅提升,CPU和其他资源更能保持“忙碌”状态,系统吞吐量增大
主要缺点:用户响应时间长,没有人机交互功能(用户提交自己的作业之后就只能等待计算机处理完成,中间不能控制自己的作业执行。eg:无法调试程序/无法在程序运行过程中输入一些参数)
分时操作系统
计算机以时间片为单位轮流为各个用户/作业服务,各个用户可通过终端与计算机进行交互
主要优点:用户请求可以被即时响应,解决了人机交互问题。允许多个用户同时使用一台计算机,并且用户对计算机的操作相互独立,感受不到别人的存在
主要缺点:不能优先处理一些紧急任务。操作系统对各个用户/作业都是完全公平的,循环地为每个用户/作业服务一个时间片,不区分任务的紧急性
实时操作系统
主要优点:能够优先响应一些紧急任务,某些紧急任务不需时间片排队
在实时操作系统的控制下,计算机系统接收到外部信号后及时进行处理,并且要在严格的时限内处理完事件。
实时操作系统的主要特点是及时性和可靠性
硬实时系统
必须在绝对严格的规定时间内完成处理
软实时系统
能接收偶尔违反时间规定
网络操作系统
分布式操作系统
个人计算机操作系统
简要了解
操作系统运行环境
运行机制
简单了解程序的运行原理
高级语言编写代码→机器指令
程序运行的过程就是CPU执行一条一条的机器指令的过程
两种程序
内核程序
实现操作系统所写的程序
很多内核程序组成了“操作系统内核”,或简称“内核”
内核是操作系统最重要最核心的部分,也是最接近硬件的部分
操作系统内核作为“管理者”,有时会让CPU执行一些“特权指令”
应用程序
普通程序员写的程序
两种指令
在CPU设计和生产的时候就划分了特权指令和非特权指令,因此CPU执行一条指令前就能判断出其类型
特权指令
只允许“管理者”,即操作系统内核来使用的指令
Eg:内存清零指令
非特权指令
Eg:加法指令,减法指令
两种处理器状态
内核态/核心态/管态
处于内核态时,说明此时正在运行的是内核程序,此时可以执行特权指令
用户态/目态
处于用户态时,说明此时正在运行的是应用程序,此时只能执行非特权指令
CPU中有一个寄存器叫程序状态字寄存器(PSW),其中有一个二进制位,1表示“内核态”,0表示“用户态”
如何变态?
内核态→用户态
执行一条特权指令——修改PSW的标志位为“用户态”,这个动作意味着操作系统将主动让出CPU使用权
用户态→内核态
由“中断”引发,硬件自动完成变态过程,触发中断信号意味着操作系统将强行夺回CPU的使用权
除了非法使用特权指令之外,还有很多事件会触发中断信号。一个共性是,但凡需要操作系统介入的地方,都会触发中断信号
中断和异常
中断的作用
“中断”是让操作系统内核强行夺回CPU的控制权的唯一途径
“中断”会使CPU从用户态变为内核态,使操作系统重新夺回CPU的控制权
中断的类型(广义的中断)
内中断(也称“异常”)
与当前执行的指令有关,中断信号来源于CPU内部
陷阱、陷入(trap)
应用程序想请求操作系统内核的一些服务需要发出一条陷入指令(trap)
故障(fault)
由错误条件引起的,可能被内核程序修复。内核程序修复故障后会把 CPU使用权还给应用程序,让它继续执行下去。如:缺页故障。
终止(abort)
由致命错误引起内核程序无法修复该错误,因此一般不再将CPU使用权还给引发终止的应用程序,而是直接终止该应用程序。如:整数除0、非法使用特权指令
外中断(狭义的中断)
与当前执行的指令无关,中断信号来源于CPU外部
时钟中断
I/O中断请求
中断机制的基本原理
检查中断信号
内中断:CPU在执行指令时会检查是否有异常发生
外中断:每个指令周期末尾CPU都会查是否有外中断信号需要处理
找到相应的中断处理程序
通过“中断向量表”实现
系统调用
什么是系统调用?
“系统调用”是操作系统提供给应用程序(程序员/编程人员)使用的接口,可以理解为一种可供应用程序调用的特殊函数,应用程序可以通过系统调用来请求获得操作系统内核的服务
系统调用与库函数的区别
什么功能要用系统调用实现?
设备管理
完成设备的请求/释放/启动等功能
文件管理
完成文件的读/写/创建/删除等功能
进程控制
完成进程的创建/撤销/阻塞/唤醒等功能
进程通信
完成进程之间的消息传递/信号传递等功能
内存管理
完成内存的分配/回收等功能
凡是与共享资源有关的操作、会直接影响到其他进程的操作,就一定需要操作系统介入,就需要通过系统调用来实现
系统调用的过程
传参
陷入指令/Trap/访管
由操作系统内核程序处理系统调用请求
返回应用程序
一些考点
1. 陷入指令是在用户态执行的,执行陷入指令之后立即引发一个内中断,使CPU进入核心态
2. 发出系统调用请求是在用户态,而对系统调用的相应处理在核心态下进行
操作系统的体系结构
操作系统内核
层次结构
时钟管理
实时计时功能
中断处理
负责实现中断机制
原语
是—种特殊的程序
处于操作系统最底层,是最接近硬件的部分
这种程序的运行具有原子性——其运行只能一气呵成,不可中断
运行时间较短、调用频繁
对系统资源进行管理的功能
进程管理
存储器管理
设备管理
微内核
只把最基本的功能保留在内核
优点:内核功能少,结构清晰,方便维护
缺点:需要频繁地在核心态和用户态之间切换,性能低
大内核
将操作系统的主要功能都作为系统内核,运行在核心态
优点:高性能
缺点:内核代码庞大,结构混乱,难以维护
内核是操作系统最基本,最核心的部分
实现操作系统内核功能的那些部分就是内核程序
操作系统内核需要运行在内核态
操作系统的非内核功能运行在用户态
操作系统引导(boot)
1.CPU从一个特定主存地址开始取指令,执行ROM中的引导程序(先进行硬件自检,再开机)
2.将磁盘的第一块——主引导记录读入丙存,执行磁盘引导程序,扫描分区表
3.从活动分区(又称主分区,即安装了操作系统的分区)读入分区引导记录,执行其中的程序
4.从根目录下找到完整的操作系统初始化程序(即启动管理器)并执行,完成“开机”的一系列动作
虚拟机
虚拟机/虚拟机管理程序/虚拟机监控程序/VMM:使用虚拟化技术,将一台物理机器虚拟化为多台虚拟机器,每个虚拟机器都可以独立运行一个操作系统
第二章 进程与线程
进程与线程
进程与线程的基本概念
进程的概念
程序:是静态的,就是个存放在磁盘里的可执行文件,就是一系列的指令集合
进程:是动态的,是程序的一次执行过程
同一个程序多次执行会对应多个进程
进程是进程实体的运行过程,是系统进行资源分配和调度的一个独立单位
进程的组成
当进程被创建时,操作系统会为该进程分配一个唯一的、不重复的“身份证号”——PID
进程控制块(PCB)
进程的描述信息
进程标识符PID
用户标识符UID
进程控制和管理信息
CPU、磁盘、网络流量使用情况统计...
进程当前状态:就绪态/阻塞态/运行态...
资源分配清单
正在使用哪些文件
正在使用哪些内存区域
正在使用哪些I/O设备
处理机相关信息
如PSW、PC等等各种寄存器的值(用于实现进程切换)
这些信息都被保存在一个数据结构PCB中,即进程控制块,操作系统需要对各个并发运行的进程进行管理,但凡管理时所需要的信息,都会被放在PCB中
操作系统对进程进行管理工作所需的信息都存在PCB中
PCB是给操作系统用的
程序段
包含程序指令
数据段
包含运行过程中产生的各种数据
一个进程实体(进程映像)由PCB,程序段,数据段组成
进程是动态的,进程实体(进程映像)是静态的
注意:PCB是进程存在的唯一标志!
程序段和数据段是给进程自己用的
进程的特征
动态性
进程的最基本特性
进程是程序的一次执行过程,是动态地产生、变化和消亡的
并发性
内存中有多个进程实体,各进程可并发执行
独立性
进程是能独立运行、独立获得资源、独立接受调度的基本单位
异步性
各进程按各自独立的,不可预知的速度向前推进 操作系统要提供"进程同步机制"来解决异步问题
结构性
每个进程都会配置一个PCB。结构上看,进程由程序段、数据段、PCB组成
进程的状态和转换
状态
创建状态/新建态
进程正在被创建时,它的状态是“创建态”,在这个阶段操作系统会为进程分配资源、初始化PCB
就绪状态
当进程创建完成后,便进入“就绪态”处于就绪态的进程已经具备运行条件,但由于没有空闲CPU,就暂时不能运行
系统中可能会有很多个进程都处于就绪态
CPU❎其他所需资源✅
运行状态
当CPU空闲时,操作系统就会选择一个就绪进程,让它上处理机运行
如果一个进程此时在CPU上运行,那么这个进程处于“运行态”
单CPU情况下,同一时刻只会有一个进程处于运行态,多核CPU情况下,可能有多个进程处于运行态
CPU✅其他所需资源✅
阻塞状态
在进程运行的过程中,可能会请求等待某个事件的发生(如等待某种系统资源的分配,或者等待其他进程的响应)
在这个事件发生之前,进程无法继续往下执行,此时操作系统会让这个进程下CPU,并让它进入“阻塞态”
当CPU空闲时,又会选择另一个“就绪态”进程上CPU运行
CPU❎其他所需资源❎
终止状态/结束态
一个进程可以执行exit 系统调用,请求操作系统终止该进程。
此时该进程会进入“终止态”,操作系统会让该进程下CPU,并回收内存空间等资源,最后还要回收该进程的PCB
三种基本状态
进程的整个生命周期中,大部分时间都处于三种基本状态
状态间的转换
就绪态→运行态
进程被调度
运行态→就绪态
时间片到,或CPU被其他高优先级的进程抢占
运行态→阻塞态
等待系统资源分配,或等待某事件发生(主动行为)
阻塞态→就绪态
资源分配到位,等待的事件发生(被动行为)
创建态→就绪态
系统完成创建进程相关的工作
运行态→终止态
进程运行结束,或运行过程中遇到不可修复的错误
进程的组织方式(各个进程PCB的组织方式)
进程PCB中,会有一个变量state来表示进程的当前状态
链式方式/链接方式
按照进程状态将PCB分为多个队列
操作系统持有指向各个队列的指针
索引方式
根据进程状态的不同,建立几张索引表
操作系统持有指向各个索引表的指针
进程控制
基本概念
进程控制就是要实现进程状态的转换
进程控制用原语实现
原语用关/开中断来实现
原语是一种特殊的程序
原语的执行具有“原子性”,一气呵成
进程控制相关的原语
进程的创建
创建原语
引起进程创建的事件
用户登录
分时系统中,用户登录成功,系统会建立为其建立一个新的进程
作业调度
多道批处理系统中,有新的作业放入内存时,会为其建立一个新的进程
提供服务
用户向操作系统提出某些请求时,会新建一个进程处理该请求
应用请求
由用户进程主动请求创建一个子进程
进程的终止
撤销原语
引起进程终止的事件
正常结束
进程自己请求终止(exit系统调用)
异常结束
整数除以0、非法使用特权指令, 然后被操作系统强行杀掉
外界干预
Ctrl+Alt+delete,用户选择杀掉进程
进程的阻塞和唤醒
进程的阻塞
阻塞原语
进程的唤醒
唤醒原语
阻塞原语唤醒原语必须成对使用
进程的切换
切换原语
引起进程切换的事件
当前进程时间片到
有更高优先级的进程到达
当前进程主动阻塞
当前进程终止
进程间通信
基本概念
进程间通信(IPC)是指两个进程之间产生数据交互
进程是分配系统资源的单位(包括内存地址空间),因此各进程拥有的内存地址空间相互独立
为了保证安全,一个进程不能直接访问另一个进程的地址空间
共享存储
设置一个共享内存区域,并映射到进程的虚拟地址空间
为避免出错,各个进程对共享空间的访问应该是互斥的
基于数据结构的共享:这种共享方式速度慢,限制多,是一种低级通信方式
基于存储区的共享:操作系统在内存中划出一块共享存储区,数据的形式、存放位置都由通信进程控制,而不是操作系统。这种共享方式速度很快,是一种高级通信方式
消息传递
进程间的数据交换以格式化的消息(Message)为单位。进程通过操作系统提供的“发送消息/接收消息”两个原语进行数据交换。
格式化的消息
直接通信方式
消息发送进程要指明接收进程的ID
消息直接挂到接收进程的消息队列里
点名道姓的进行传递
间接通信方式
通过“信箱”间接地通信,因此又称“信箱通信方式”
消息先发到中间体(信箱)
可以多个进程往同一个信箱send消息,也可以多个进程从同一个信箱中receive消息
管道通信
“管道”是一个特殊的共享文件,又名pipe文件。其实就是在内存中开辟一个大小固定的内存缓冲区
可以理解为一个循环队列
管道只能采用半双工通信,某一时间段内只能实现单向的传输,如果要实现双向同时通信,则需要设置两个管道
各进程要互斥地访问(由操作系统实现)
当管道写满时,写进程将阻塞,直到读进程将管道中的数据取走,即可唤醒写进程
当管道读空时,读进程将阻塞,直到写进程往管道中写入数据,即可唤醒读进程
管道中的数据一旦被读出,就彻底消失,因此,当多个进程读同一个管道时,可能会错乱。对此通常有两种解决方案
1.一个管道允许多个写进程,一个读进程
2.允许有多个写进程,多个读进程,但系统会让各个读进程轮流从管道读数据(Linux的方案)
线程
基本概念
传统的进程是程序执行流的最小单位
引入线程后,线程成为了程序执行流的最小单位
可以把线程理解为“轻量级进程”
线程是一个基本的CPU执行单元,也是程序执行流的最小单位
引入线程之后,不仅是进程之间可以并发,进程内的各线程之间也可以并发,从而进一步提升了系统的并发度,使得一个进程内也可以并发处理各种任务
引入线程后,进程只作为除CPU之外的系统资源的分配单元
线程带来的变化
资源分配、调度
传统进程机制中,进程是资源分配、调度的基本单位
引入线程后,进程是资源分配的基本单位,线程是调度的基本单位
并发性
传统进程机制中,只能进程间并发
引入线程后,各线程间也能并发,提升了并发度
系统开销
传统的进程间并发,需要切换进程的运行环境,系统开销很大
线程间并发,如果是同一进程内的线程切换,则不需要切换进程环境,系统开销小
引入线程后,并发所带来的系统开销减小
线程的属性
线程是处理机调度的单位
多CPU计算机中,各个线程可占用不同的CPU
每个线程都有一个线程ID、线程控制块(TCB)
线程也有就绪、阻塞、运行三种基本状态
线程几乎不拥有系统资源
同一进程的不同线程间共享进程的资源
由于共享内存地址空间,同一进程中的线程间通信甚至无需系统干预
同一进程中的线程切换,不会引起进程切换
不同进程中的线程切换,会引起进程切换
切换同进程内的线程,系统开销很小
切换进程,系统开销较大
线程的实现方式
用户级线程
从用户视角能看到的线程,由线程库实现
用户级线程由应用程序通过线程库实现,所有的线程管理工作都由应用程序负责(包括线程切换)
用户级线程中,线程切换可以在用户态下即可完成,无需操作系统干预
在用户看来,是有多个线程,但是在操作系统内核看来,并意识不到线程的存在,“用户级线程”就是“从用户视角看能看到的线程”
优缺点
优点:用户级线程的切换在用户空间即可完成,不需要切换到核心态,线程管理的系统开销小,效率高
缺点:当一个用户级线程被阻塞后,整个线程都会被阻塞,并发度不高。多个线程不可在多核处理机上并行运行
内核级线程
从操作系统视角看到的线程。由操作系统实现内核级线程才是处理机分配的单位
内核级线程的管理工作由操作系统内核完成
线程调度、切换等工作都由内核负责,因此内核级线程的切换必然需要在核心态下才能完成
操作系统会为每个内核级线程建立相应的TCB,通过TCB对线程进行管理,“内核级线程”就是“从操作系统内核视角看能看到的线程”
优缺点
优点:当一个线程被阻塞后,别的线程还可以继续执行,并发能力强,多线程可在多核处理机上并行执行
缺点:一个用户进程会占用多个内核级线程,线程切换由操作系统内核完成,需要切换到核心态,因此线程管理的成本高,开销大
多线程模型
—对一模型
一个用户级线程映射到一个内核级线程,每个用户进程有与用户级线程同数量的内核级线程
优点:当一个线程被阻塞后,别的线程还可以继续执行,并发能力强,多线程可在多核处理机上并行执行
缺点︰一个用户进程会占用多个内核级线程,线程切换由操作系统内核完成,需要切换到核心态,因此线程管理成本高,开销大
多对一模型
多个用户级线程映射到一个内核级线程,且一个进程只被分配一个内核级线程
优点:用户级线程的切换在用户空间即可完成,不需要切换到核心态,线程管理的系统开销小,效率高
缺点:当一个用户级线程被阻塞后,整个进程都会被阻塞,并发度不高。多个线程不可在多核处理机上并行运行
多对多模型
n用户及线程映射到m个内核级线程(n≥m),每个用户进程对应m个内核级线程
克服了多对一模型并发度不高的缺点(一个阻塞全体阻塞),又克服了一对一模型中一个用户进程占用太多内核级线程,开销太大的缺点
集二者之所长
可以这么理解
用户级线程是“代码逻辑”的载体
内核级线程是“运行机会”的载体
一段“代码逻辑”只有获得了“运行机会”才能被CPU执行
内核级线程才是处理机分配的单位
内核级线程中可以运行任意一个有映射关系的用户级线程代码,只有两个内核级线程中正在运行的代码逻辑都阻塞时,这个进程才会阻塞
状态与转换
组织与控制
CPU调度
CPU调度
调度的基本概念
当有一堆任务要处理,但由于资源有限,这些事情没法同时处理。这就需要确定某种规则来决定处理这些任务的顺序,这就是“调度”研究的问题。
三个层次
高级调度(作业调度)
作业:一个具体的任务
按一定的原则从外存的作业后备队列中挑选一个作业调入内存,并创建进程。每个作业只调入一次,调出一次。作业调入时会建立PCB,调出时才撤销PCB
简化理解:好几个程序需要启动,到底先启动哪个
低级调度(进程调度/处理机调度)
按照某种策略从就绪队列中选取一个进程,将处理机分配给它
进程调度是操作系统中最基本的一种调度,在一般的操作系统中都必须配置进程调度
进程调度的频率很高,一般几十毫秒一次
中级调度(内存调度)
按照某种策略决定将哪个处于挂起状态的进程重新调入内存
暂时调到外存等待的进程状态为挂起状态,被挂起的进程PCB会被组织成挂起队列
三层调度的联系,对比
补充知识
进程的“挂起来”
暂时调到外存等待的进程状态为挂起状态(挂起态)
挂起态又可以进一步细分为就绪挂起、阻塞挂起两种状态
七状态模型
注意“挂起”和“阻塞”的区别,两种状态都是暂时不能获得CPU的服务,但挂起态是将进程映像调到外存去了,而阻塞态下进程映像还在内存中。
有的操作系统会把就绪挂起、阻塞挂起分为两个挂起队列,甚至会根据阻塞原因不同再把阻塞挂起进程进一步细分为多个队列。
进程调度
进程调度的时机
进程调度(低级调度),就是按照某种算法从就绪队列中选择一个进程为其分配处理机
需要进行进程调度与切换的情况
当前运行的进程主动放弃处理机
当前运行的进程被动放弃处理机
不能进行进程调度与切换的情况
在处理中断的过程中,中断处理过程复杂,与硬件密切相关,很难做到在中断处理过程中进行进程切换
进程在操作系统内核程序临界区中
进程在操作系统内核临界区中不能进行调度与切换
进程处于临界区时不能进行处理机调度
原理解释
临界资源:一个时间段内只允许一个进程使用的资源。各进程需要互斥地访问临界资源
临界区:访问临界资源的那段代码
内核程序临界区一般是用来访问某种内核数据结构的,比如进程的就绪队列(由各就绪进程的PCB组成)
如果还没退出临界区(还没解锁)就进行进程调度,但是进程调度相关的程序也需要访问就绪队列,但此时就绪队列被锁住了,因此又无法顺利进行进程调度
内核程序临界区访问的临界资源如果不尽快释放的话,极有可能影响到操作系统内核的其他管理工作。因此在访问内核程序临界区期间不能进行调度与切换
在打印机打印完成之前,进程一直处于临界区内,临界资源不会解锁。但打印机又是慢速设备,此时如果一直不允许进程调度的话就会导致CPU一直空闲
普通临界区访问的临界资源不会直接影响操作系统内核的管理工作。因此在访问普通临界区时可以进行调度与切换。
在原子操作过程中(原语),原子操作不可中断,要一气呵成
进程调度的方式
非剥夺调度方式(非抢占式)
只允许进程主动放弃处理机,在运行过程中即便有更紧迫的任务到达,当前进程依然会继续使用处理机,直到该进程终止或主动要求进入阻塞态
实现简单,系统开销小但是无法及时处理紧急任务,适合于早期的批处理系统
剥夺调度方式(抢占式)
当一个进程正在处理机上执行时,如果有一个更重要或更紧迫的进程需要使用处理机,则立即暂停当前执行的进程,将处理机分配给更重要紧迫的那个进程
可以优先处理更紧急的进程,也可实现让各进程按时间片轮流执行的功能(通过时钟中断)。适合于分时操作系统、实时操作系统
进程的切换与过程
“狭义的调度”与“切换”的区别
狭义的进程调度指的是从就绪队列中选中一个要运行的进程。(这个进程可以是刚刚被暂停执行的进程,也可能是另一个进程,后一种情况就需要进程切换)
进程切换是指一个进程让出处理机,由另一个进程占用处理机的过程
广义的进程调度包含
选择一个进程
进程切换
对原来运行进程各种数据的保存
对新的进程各种数据的恢复
注意:进程切换是有代价的,因此如果过于频繁的进行进程调度、切换,必然会使整个系统的效率降低,使系统大部分时间都花在了进程切换上,而真正用于执行进程的时间减少
调度器/调度程序
调度程序决定
让谁运行——调度算法
运行多长时间——时间片大小
调度时机
什么事件会触发“调度程序”
创建新进程
进程退出
运行进程阻塞
I/O中断发生(可能唤醒某些阻塞进程)
非抢占式调度策略,只有运行进程阻塞或退出才触发调度程序工作
抢占式调度策略,每个时钟中断或k个时钟中断会触发调度程序工作
闲逛进程
调度程序永远的备胎,没有其他就绪进程时,运行闲逛进程(idle)
特性
优先级最低
可以是0地址指令,占一个完整的指令周期(指令周期末尾例行检查中断)
能耗低
调度算法
调度算法的评价指标
CPU利用率
指CPU“忙碌”的时间占总时间的比例
利用率=忙碌的时间/总时间
系统吞吐量
单位时间内完成作业的数量
系统吞吐量=总共完成了多少道作业/总共花了多少时间
周转时间
指从作业被提交给系统开始,到作业完成为止的这段时间间隔
(作业)周转时间=作业完成时间-作业提交时间
平均周转时间=各作业周转时间之和/作业数
带权周转时间=作业周转时间/作业实际运行的时间 =(作业完成时间-作业提交时间)/作业实际运行的时间
对于周转时间相同的两个作业,实际运行时间长的作业在相同时间内被服务的时间更多,带权周转时间更小,用户满意度更高。
对于实际运行时间相同的两个作业,周转时间短的带权周转时间更小,用户满意度更高
带权周转时间必然≥1
带权周转时间与周转时间都是越小越好
平均带权周转时间=各作业带权周转时间之和/作业数
等待时间
指进程/作业处于等待处理机状态时间之和,等待时间越长,用户满意度越低
对于进程来说,等待时间就是指进程建立后等待被服务的时间之和,在等待I/O完成的期间其实进程也是在被服务的,所以不计入等待时间。
对于作业来说,不仅要考虑建立进程后的等待时间,还要加上作业在外存后备队列中等待的时间。
一个作业总共需要被CPU服务多久,被I/O设备服务多久一般是确定不变的,因此调度算法其实只会影响作业/进程的等待时间。当然,与前面指标类似,也有“平均等待时间”来评价整体性能。
响应时间
指从用户提交请求到首次产生响应所用的时间
几种调度算法
先来先服务(FCFS)
算法思想
主要从“公平”的角度考虑(类似于我们生活中排队买东西的例子)
算法规则
按照作业/进程到达的先后顺序进行服务
事实上就是等待时间越久的越优先得到服务
用于作业/进程调度
用于作业调度时,考虑的是哪个作业先到达后备队列;用于进程调度时,考虑的是哪个进程先到达就绪队列
是否可抢占?
非抢占式的算法
优缺点
优点:公平、算法实现简单
缺点:排在长作业(进程)后面的短作业需要等待很长时间,带权周转时间很大,对短作业来说用户体验不好。即, FCFS算法对长作业有利,对短作业不利(Eg :排队买奶茶…)
是否会导致饥饿
短作业优先(SJF)
算法思想
追求最少的平均等待时间,最少的平均周转时间、最少的平均平均带权周转时间
算法规则
最短的作业/进程优先得到服务(所谓“最短”,是指要求服务时间最短)
用于作业/进程调度
即可用于作业调度,也可用于进程调度。用于进程调度时称为“短进程优先(SPF, Shortest Process First)算法”
是否可抢占?
SJF和SPF是非抢占式的算法。但是也有抢占式的版本——最短剩余时间优先算法(SRTN, Shortest Remaining Time Next)
最短剩余时间优先算法:每当有进程加入就绪队列改变时就需要调度,如果新到达的进程剩余时间比当前运行的进程剩余时间更短,则由新进程抢占处理机,当前运行进程重新回到就绪队列。另外,当一个进程完成时也需要调度
优缺点
优点:“最短的”平均等待时间、平均周转时间
缺点:不公平。对短作业有利,对长作业不利。可能产生饥饿现象。另外,作业/进程的运行时间是由用户提供的,并不一定真实,不一定能做到真正的短作业优先
是否会导致饥饿
会,甚至会“饿死”
注意
如果题目中未特别说明,所提到的“短作业/进程优先算法”默认是非抢占式的
很多书上会说“SJF调度算法的平均等待时间、平均周转时间最少”,但严格来说,这个表述是错误的,不严谨的,应该加上一个条件“在所有进程同时可运行时,采用SJF调度算法的平均等待时间、平均周转时间最少”;或者说“在所有进程几乎同时到达时,采用 SJF调度算法的平均等待时间、平均周转时间最少”
如果不加上述条件,则应该说“抢占式的短作业/进程优先调度算法(最短剩余时间优先,SRNT算法)的平均等待时间、平均周转时间最少”
虽然严格来说,SJF的平均等待时间、平均周转时间并不一定最少,但相比其他算法(如FCFS),SJF仍可以获得较少的平均等待时间、平均周转时间
如果选择题中遇到“SJF调度算法的平均等待时间、平均周转时间最少”的选项,那最好判断其他选项是不是有很明显的错误,如果没有更合适的选项,那也应该选择该选项
高相应比优先(HRRN)
算法思想
要综合考虑作业/进程的等待时间和要求服务的时间
算法规则
在每次调度时先计算各个作业/进程的响应比,选择响应比最高的作业/进程为其服务
响应比 =(等待时间+要求服务时间)/ 要求服务时间
响应比≥1
用于作业/进程调度
即可用于作业调度,也可用于进程调度
是否可抢占?
非抢占式的算法。因此只有当前运行的作业/进程主动放弃处理机时,才需要调度,才需要计算响应比
优缺点
等待时间相同时,要求服务时间短的优先(SJF 的优点)
要求服务时间相同时,等待时间长的优先(FCFS 的优点)
是否会导致饥饿
不会
时间片轮转调度算法(RR)
算法思想
公平地、轮流地为各个进程服务,让每个进程在一定时间间隔内都可以得到响应
算法规则
按照各进程到达就绪队列的顺序,轮流让各个进程执行一个时间片(如 100ms),若进程未在一个时间片内执行完,则剥夺处理机,将进程重新放到就绪队列队尾重新排队。
用于作业/进程调度
用于进程调度(只有作业放入内存建立了相应的进程后,才能被分配处理机时间片)
是否可抢占?
若进程未能在时间片内运行完,将被强行剥夺处理机使用权,因此时间片轮转调度算法属于抢占式的算法。由时钟装置发出时钟中断来通知CPU时间片已到
优缺点
优点:公平;响应快,适用于分时操作系统;
缺点:由于高频率的进程切换,因此有一定开销;不区分任务的紧急程度。
是否会导致饥饿
不会
注意
时间片太大或太小分别有什么影响?
如果时间片太大,使得每个进程都可以在一个时间片内就完成,则时间片轮转调度算法退化为先来先服务调度算法,并且会增大进程响应时间,因此时间片不能太大
如果时间片太小,会导致进程切换过于频繁,系统会花大量的时间来处理进程切换,从而导致实际用于进程执行的时间比例减少,可见时间片也不能太小
一般来说,设计时间片时要让切换进程的开销占比不超过1%
默认新到达的进程先进入就绪队列
优先级调度算法
算法思想
随着计算机的发展,特别是实时操作系统的出现,越来越多的应用场景需要根据任务的紧急程度来决定处理顺序
算法规则
每个作业/进程有各自的优先级,调度时选择优先级最高的作业/进程
用于作业/进程调度
既可用于作业调度,也可用于进程调度。甚至,还会用于在之后会学习的I/O调度中
是否可抢占?
抢占式、非抢占式都有。做题时的区别在于:非抢占式只需在进程主动放弃处理机时进行调度即可,而抢占式还需在就绪队列变化时,检查是否会发生抢占。
优缺点
优点:用优先级区分紧急程度、重要程度,适用于实时操作系统。可灵活地调整对各种作业/进程的偏好程度。
缺点:若源源不断地有高优先级进程到来,则可能导致饥饿
是否会导致饥饿
会
注意
就绪队列未必只有一个,可以按照不同优先级来组织。另外,也可以把优先级高的进程排在更靠近队头的位置
根据优先级是否可以动态改变,可将优先级分为静态优先级和动态优先级两种。
静态优先级:创建进程时确定,之后一直不变。
动态优先级:创建进程时有一个初始值,之后会根据情况动态地调整优先级
如何合理的设置各类进程的优先级
系统进程优先级 高于 用户进程
前台进程优先级 高于 后台进程
操作系统更偏好I/O型进程(或称I/O繁忙型进程)
注:与I/O型进程相对的是计算型进程(或称CPU繁忙型进程)
I/O设备和CPU可以并行工作。如果优先让I/O繁忙型进程优先运行的话,则越有可能让I/O设备尽早地投入工作,则资源利用率、系统吞吐量都会得到提升
如果采用的是动态优先级,什么时候应该调整
可以从追求公平、提升资源利用率等角度考虑
如果某进程在就绪队列中等待了很长时间,则可以适当提升其优先级
如果某进程占用处理机运行了很长时间,则可适当降低其优先级
如果发现一个进程频繁地进行I/O操作,则可适当提升其优先级
多级反馈队列算法
算法思想
对其他调度算法的折中权衡
算法规则
1. 设置多级就绪队列,各级队列优先级从高到低,时间片从小到大
2. 新进程到达时先进入第1级队列,按FCFS原则排队等待被分配时间片。 若用完时间片进程还未结束,则进程进入下一级队列队尾。 如果此时已经是在最下级的队列,则重新放回最下级队列队尾
3. 只有第 k 级队列为空时,才会为 k+1 级队头的进程分配时间片
用于作业/进程调度
用于进程调度
是否可抢占?
抢占式的算法,在k级队列的进程运行过程中,若更上级的队列(1~k-1级)中进入了一个新进程,则由于新进程处于优先级更高的队列中,因此新进程会抢占处理机,原来运行的进程放回k级队列队尾。
优缺点
基本集合了所有算法的优点
是否会导致饥饿
会
多级队列调度算法
系统中按进程类型设置多个队列,进程创建成功后插入某个队列
队列之间可采取固定优先级,或时间片划分
各队列可采用不同的调度策略
这三种算法一般适合用于早期的批处理系统
这三种算法一般适合用于交互式系统
同步与互斥
进程同步
基本概念
进程具有异步性的特征,异步性是指,各并发执行的进程以各自独立的、不可预知的速度向前推进
并发性带来了异步性,有时需要通过进程同步解决这种异步问题
同步亦称直接制约关系,它是指为完成某种任务而建立的两个或多个进程,这些进程因为需要在某些位置上协调他们的工作次序而产生的制约关系,进程间的直接制约关系就是源于他们之间的相互合作
两种资源共享方式
互斥共享方式
系统中的某些资源,虽然可以提供给多个进程使用,但一个时间段内只允许一个进程访问该资源
同时共享方式
系统中的某些资源,允许一个时间段内由多个进程“同时”对它们进行访问
把一个时间段内只允许一个进程使用的资源称为临界资源,对临界资源的访问,必须互斥的进行
进程互斥
基本概念
互斥,亦称间接制约关系,进程互斥指当一个进程访问某临界资源时,另一个想要访问该临界资源的进程必须等待,当前访问临界资源的进程访问结束,释放该进程之后,另一个进程才能去访问临界资源
四个部分
进入区:负责检查是否可进入临界区,若可进入,则应设置正在访问临界资源的标志(可理解为“上锁”),以阻止其他进程同时进入临界区
临界区:访问临界资源的那段代码
退出区:负责接触正在访问临界资源的标志(可理解为“解锁”)
剩余区:做其他处理
注意
进入区和退出区是负责实现互斥的代码段
临界区也可称为“临界段”
需要遵循的原则
空闲让进
临界区空闲时,可以允许一个请求进入临界区的进程立即进入临界区
忙则等待
当已有进程进入临界区时,其他试图进入临界区的进程必须等待
有限等待
对请求访问的进程,应保证能在有限时间内进入临界区(保证不会饥饿)
让权等待
当进程不能进入临界区时,应立即释放处理机,防止进程忙等待
软件实现方法
单标志法
算法思想
两个进程在访问完临界区后会把使用临界区的权限转交给另一个进程。也就是说每个进程进入临界区的权限只能被另一个进程赋予
在进入区只做“检查”,不“上锁”
在退出区把临界区的使用权转交给另一个进程(相当于在退出区既给另一进程“解锁”,又给自己“上锁”)
主要问题
违背“空闲让进”原则
双标志先检查
算法思想
设置一个布尔型数组flag[],数组中各个元素用来标记各进程想进入临界区的意愿
在进入区先“检查”后“上锁”,退出区“解锁”
主要问题
违反“忙则等待”原则
产生问题的原因
进入区的“检查”和“上锁”两个处理不是一气呵成的
双标志后检查
算法思想
双标志先检查法的改版
在进入区先“加锁”后“检查”,退出区“解锁”
主要问题
虽然解决了“忙则等待”的问题,但是又违背了“空闲让进”和“有限等待”原则,会因各进程都长期无法访问临界资源而产生“饥饿”现象
Peterson算法
算法思想
结合双标志法,单标志法的思想
在进入区“主动争取—主动谦让—检查对方是否想进、己方是否谦让”
主要问题
遵循了空闲让进、忙则等待和有限等待三个原则,但是依然未遵循让权等待的原则的
硬件实现方法
中断屏蔽方法
使用“开/关中断”指令实现
优点:简单、高效
缺点:不适用于多处理机,只适用于操作系统内核进程,不适用于用户进程
TestAndSet (TS指令/TSL指令)
TSL指令是用硬件实现的,执行的过程不允许被中断,只能一气呵成
old记录是否已被上锁; 再将lock 设为true; 检查临界区是否已被上锁 (若已上锁,则循环重复前几步)
优点:实现简单,无需像软件实现方法那样严格检查是否会有逻辑漏洞,适用于多处理机环境;
缺点:不满足“让权等待”原则,暂时无法进入临界区的进程会占用CPU并循环执行TSL指令,从而导致忙等
Swap指令(Exchange指令/XCHG指令)
Swap指令是用硬件实现的,执行的过程不允许被中断,只能一气呵成
逻辑上同TSL指令
互斥锁
解决临界区最简单的工具就是互斥锁
一个进程在进入临界区时应获得锁,在退出临界区时释放锁。
函数acquire()获得锁,而函数release()释放锁
主要缺点:忙等待
需要连续循环忙等的互斥锁,都可称为自旋锁,如TSL指令,Swap指令,单标志法
特性
需忙等,进程时间片用完才下处理机,违反“让权等待”
优点:等待期间不用切换进程上下文,多处理器系统中,若上锁的时间短,则等待代价很低
常用于多处理器系统,一个核忙等,其他核照常工作,并快速释放临界区
不太适用于单处理机系统,忙等的过程中不可能解锁
信号量机制
基本概念
用户进程可以通过使用操作系统提供的一对原语来对信号量进行操作,从而很方便的实现了进程互斥、进程同步
信号量其实就是一个变量(可以是一个整数,也可以是更复杂的记录型变量),可以用一个信号量来表示系统中某种资源的数量,比如:系统中只有一台打印机,就可以设置一个初值为1的信号量
一对原语:wait(S)原语和signal(S)原语,可以把原语理解为我们自己写的函数,函数名分别为wait和signal,括号里的信号量S其实就是函数调用时传入的一个参数
wait、signal原语常简称为P、V操作,因此做题的时候常把wait(S)、signal(S)两个操作分别写为P(S),V(S)
整型信号量
用一个整数型的变量作为信号量,用来表示系统中某种资源的数量
与普通整型变量的区别:对信号量的操作只有三种,即初始化,P操作,V操作
存在的问题:不满足“让权等待”的原则,会发生“忙等”
记录型信号量
P,V原语用于实现系统资源的“申请”和释放
S.value的初值表示系统中某种资源的数目
对信号量S的一次Р操作意味着进程请求一个单位的该类资源,因此需要执行S.value--,表示资源数减1,当S.value<0时表示该类资源已分配完毕,因此进程应调用block原语进行自我阻塞(当前运行的进程从运行态→阻塞态),主动放弃处理机,并插入该类资源的等待队列S.L中。可见,该机制遵循了“让权等待”原则,不会出现“忙等”现象。
对信号量S的一次V操作意味着进程释放一个单位的该类资源,因此需要执行S.value++,表示资源数加1,若加1后仍是S.value <=0,表示依然有进程在等待该类资源,因此应调用wakeup原语唤醒等待队列中的第一个进程(被唤醒进程从阻塞态→就绪态)。
若考试中出现P(S),V(S)的操作,除非特别说明,否则默认S为记录型信号量
进程互斥
过程
1.分析并发进程的关键活动,划分临界区
2.设置互斥信号量mutex,初值为1
理解:信号量mutex表示“进入临界区的名额”
3.在进入区P(mutex)——申请资源
4.在退出区V(mutex)——释放资源
注意
要会自己定义记录型信号量,但如果题目中没特别说明,可以直接把信号量的声明写成semaphore mutex=1这种形式
对不同的临界资源需要设置不同的互斥信号量
P,V操作必须成对出现,缺少P就不能保证临界资源的互斥访问,缺少V会导致资源用不被释放,等待进程永不被唤醒
进程同步
过程
1.分析什么地方需要实现“同步关系”,即必须保证“一前一后”执行的两个动作(或两句代码)
2.设置同步信号量S,初始为0
3.在“前操作”之后执行V(S)
4.在“后操作”之前执行P(S)
技巧口诀:前V后P
信号量机制实现前驱关系
实际上,每一对前驱关系都是一个进程同步问题
过程
1.分析问题,画出前驱图,把每一对前驱关系都看成一个同步问题
2.要为每一对前驱关系各设置一个同步信号量,初值为0
3.在“前操作”之后对相应的同步信号量执行V操作
4.在“后操作”之前对相应的同步信号量执行P操作
同步互斥的典型问题
PV操作题分析步骤
1.关系分析,找出题目中描述的各个进程,分析它们之间的同步,互斥关系
2.整理思路,根据各进程的操作流程确定P,V操作的大致顺序
互斥:在临界区前后分别PV
同步:前V后P
3.设置信号量,并根据题目条件确定信号量初值(互斥信号量初值一般为1,同步信号量的初值要看对应资源的初始值是多少)
生产者-消费者问题
问题描述
系统中有一组生产者进程和一组消费者进程,生产者进程每次生产一个产品放入缓冲区,消费者进程每次从缓冲区中取出一个产品并使用。(注:这里的“产品”理解为某种数据)
生产者,消费者共享一个初始为空,大小为n的缓冲区
只有缓冲区没满时,生产者才能把产品放入缓冲区,否则必须等待
只有缓冲区不空时,消费者才能从中去除产品,否则必须等待
临界区是临界资源,各进程必须互斥的访问
如何实现
P,V是否可交换
实现互斥的P操作一定要在实现同步的P操作之后
V操作不会导致进程阻塞,因此两个V操作顺序可以交换
多生产者-多消费者问题
问题描述
“多”理解为多类产品
桌子上有一只盘子,每次只能向其中放入一个水果。爸爸专向盘子中放苹果,妈妈专向盘子中放橘子,儿子专等着吃盘子中的橘子,女儿专等着吃盘子中的苹果。只有盘子空时,爸爸或妈妈才可向盘子中放一个水果。仅当盘子中有自己需要的水果时,儿子或女儿可以从盘子中取出水果。
如何实现
总结
在生产者-消费者问题中,如果缓冲区大小为1,那么有可能不需要设置互斥信号量就可以实现互斥访问缓冲区的功能,当然这不是绝对的,要具体问题具体分析
在考试中如果来不及仔细分析,可以加上互斥信号量,保证各进程一定会互斥的访问缓冲区,但需要注意的是,实现互斥的P操作一定要在实现同步的P操作之后,否则引起“死锁”
吸烟者问题
问题描述
假设一个系统有三个抽烟者进程和一个供应者进程。每个抽烟者不停地卷烟并抽掉它,但是要卷起并抽掉一支烟,抽烟者需要有三种材料:烟草、纸和胶水。三个抽烟者中,第一个拥有烟草、第二个拥有纸、第三个拥有胶水。供应者进程无限地提供三种材料,供应者每次将两种材料放桌子上,拥有剩下那种材料的抽烟者卷一根烟并抽掉它,并给供应者进程一个信号告诉完成了,供应者就会放另外两种材料再桌上,这个过程一直重复(让三个抽烟者轮流地抽烟)
组合一:纸+胶水 组合二:纸+烟草 组合三:胶水+烟草
如何实现
读者写者问题
问题描述
有读者和写者两组并发进程,共享一个文件,当两个或两个以上的读进程同时访问共享数据时不会产生副作用,但若某个写进程和其他进程(读进程或写进程)同时访问共享数据时则可能导致数据不一致的错误。因此要求: 1.允许多个读者可以同时对文件执行读操作 2.只允许一个写者往文件中写信息 3.任一写者在完成写操作之前不允许其他读者或写者工作 4.写者执行写操作前,应让已有的读者和写者全部退出
如何实现
总结
在这种算法中,连续进入的多个渎职可以同时读文件,写者和其他进程不能同时访问文件,写者不会饥饿,但也并不是真正的“写优先”,而是相对公平的先来先服务原则,有的书上把这种算法称为“读写公平法”
核心思想在于设置了一个计数器count用来记录当前正在访问共享文件的读进程数,我们可以用count的值来判断当前进入的进程是否是第一个/最后一个读进程,从而做出不同的处理
另外,对count变量的检查和赋值不能一气呵成导致了一些错误,如果需要实现“一气呵成”,自然应该想到用互斥信号量
哲学家进餐问题
问题描述
一张圆桌上坐着5名哲学家,每两个哲学家之间的桌上摆一根筷子,桌子的中间是一碗米饭。哲学家们倾注毕生的精力用于思考和进餐,哲学家在思考时,并不影响他人。只有当哲学家饥饿时,才试图拿起左、右两根筷子(一根一根地拿起)。如果筷子己在他人手上,则需等待。饥饿的哲学家只有同时拿起两根筷子才可以开始进餐,当进餐完毕后,放下筷子继续思考。
关系分析。系统中有5个哲学家进程,5位哲学家与左右邻居对其中间筷子的访问是互斥关系。
整理思路。这个问题中只有互斥关系,但与之前遇到的问题不同的事,每个哲学家进程需要同时持有两个临界资源才能开始吃饭。如何避免临界资源分配不当造成的死锁现象,是哲学家问题的精髓。
信号量设置。定义互斥信号量数组chopstick[5]={1,1,1,1,1}用于实现对5个筷子的互斥访问。并对哲学家按0~4编号,哲学家i左边的筷子编号为i,右边的筷子编号为(i+1)%5。
如何实现
1.可以对哲学家进程施加一些限制条件,比如最多允许四个哲学家同时进餐。这样可以保证至少有一个哲学家是可以拿到左右两只筷子的
2.要求奇数号哲学家先拿左边的筷子,然后再拿右边的筷子,而偶数号哲学家刚好相反。用这种方法可以保证如果相邻的两个奇偶号哲学家都想吃饭,那么只会有其中一个可以拿起第一只筷子,另一个会直接阻塞。这就避免了占有一支后再等待另一只的情况
3.仅当一个哲学家左右两支筷子都可使用时才允许他抓起筷子
管程
为什么要引入管程
解决信号量机制编程麻烦、易出错的问题
组成
局部于管程的共享数据结构说明
对该数据结构进行操作的一组过程
对局部于管程的共享数据设置初始值的语句
管程有一个名字
基本特征
局部于管程的数据只能被局部于管程的过程所访问
一个进程只有通过调用管程内的过程才能进入管程访问共享数据
每次仅允许一个进程在管程内执行某个内部过程
补充
各进程必须互斥访问管程的特性是由编译器实现的
可在管程中设置条件变量及等待/唤醒操作以解决同步问题
拓展
用管程解决生产者消费者问题
补充
由编译器负责实现各进程互斥地进入管程中的过程
管程中设置条件变量和等待/唤醒操作,以解决同步问题
特点
需要在管程中定义共享数据(如生产者消费者问题的缓冲区)
需要在管程中定义用于访问这些共享数据的“入口”——其实就是一些函数(如生产者消费者问题中,可以定义一个函数用于将产品放入缓冲区,再定义一个函数用于从缓冲区取出产品)
只有通过这些特定的“入口”才能访问共享数据
管程中有很多“入口”,但是每次只能开放其中一个“入口”,并且只能让一个进程或线程进入(如生产者消费者问题中,各进程需要互斥地访问共享缓冲区,管程的这种特性即可保证一个时间段内最多只会有一个进程在访问缓冲区。注意:这种互斥特性是由编译器负责实现的,程序员不用关心)
可在管程中设置条件变量及等待/唤醒操作以解决同步问题。可以让一个进程或线程再条件变量上等待(此时,该进程应先释放管程的使用权,也就是让出“入口”);可以通过唤醒操作将等待在条件变量上的进程或线程唤醒
Java中类似于管程的机制
synchronized
死锁
死锁的概念
基本概念
在并发环境下,各进程因竞争资源而造成的一种互相等待对方手里的资源,导致各进程都阻塞,都无法向前推进的现象,就是“死锁”。发生死锁后若无外力干涉,这些进程都将无法向前推进。
死锁、饥饿、死循环的区别
死锁产生的必要条件
互斥条件
只有对必须互斥使用的资源的争抢才会导致死锁(如哲学家的筷子、打印机设备)。像内存、扬声器这样可以同时让多个进程使用的资源是不会导致死锁的(因为进程不用阻塞等待这种资源)。
不剥夺条件
进程所获得的资源在未使用完之前,不能由其他进程强行夺走,只能主动释放
请求和保持条件
进程已经保持了至少一个资源,但又提出了新的资源请求,而该资源又被其他进程占有,此时请求进程被阻塞,但又对自己已有的资源保持不放。
循环等待条件
存在一种进程资源的循环等待链,链中的每一个进程已获得的资源同时被下一个进程所请求。
注意!发生死锁时一定有循环等待,但发生循环等待时未必死锁(循环等待是死锁的必要不充分条件)
什么时候会发生死锁
对系统资源的竞争
进程推进顺序非法
信号量的使用不当也会造成死锁
总之,对不可剥夺资源的不合理分配,可能导致死锁
死锁的处理策略
预防死锁
破坏死锁产生的四个必要条件中的一个或几个
避免死锁
避免系统进入不安全状态〔银行家算法)
死锁的检测和解除
允许死锁发生,系统负责检测出死锁并解除
死锁的处理
不允许死锁发生
静态策略:预防死锁
破坏互斥条件
将临界资源改造为可共享使用的资源(如SPOOLing技术)
缺点
并不是所有的资源都可以改造成可共享使用的资源。并且为了系统安全,很多地方还必须保护这种互斥性。因此,很多时候都无法破坏互斥条件
破坏不剥夺条件
方案一:当某个进程请求新的资源得不到满足时,它必须立即释放保持的所有资源,待以后需要时,再重新申请。也就是说,即使某些资源尚未使用完,也需要主动释放,从而破坏了不可剥夺条件。
方案二:当某个进程需要的资源被其他进程所占有的时候,可以由操作系统协助,将想要的资源强行剥夺。这种方式一般需要考虑各进程的优先级(比如:剥夺调度方式,就是将处理机资源强行剥夺给优先级更高的进程使用)
缺点
实现起来比较复杂
释放已获得的资源可能造成前一阶段工作的失效。因此这种方法一般只适用于易保存和恢复状态的资源,如CPU。
反复地申请和释放资源会增加系统开销,降低系统吞吐量
若采用方案一,意味着只要暂时得不到某个资源,之前获得的那些资源就都需要放弃,以后再重新申请。如果一直发生这样的情况,就会导致进程饥饿。
破坏请求和保持条件
可以采用静态分配方法,即进程在运行前一次申请完它所需要的全部资源,在它的资源未满足前,不让它投入运行。一旦投入运行后,这些资源就一直归它所有,该进程就不会再请求别的任何资源了
缺点
有些资源可能只需要用很短的时间,因此如果进程的整个运行期间都一直保持着所有资源,就会造成严重的资源浪费,资源利用率极低。另外,该策略也有可能导致某些进程饥饿
破坏循环等待条件
可采用顺序资源分配法。首先给系统中的资源编号,规定每个进程必须按编号递增的顺序请求资源,同类资源(即编号相同的资源)一次申请完。
缺点
不方便增加新的设备,因为可能需要重新分配所有的编号
进程实际使用资源的顺序可能和编号递增顺序不一致,会导致资源浪费
必须按规定次序申请资源,用户编程麻烦
动态策略:避免死锁
什么是安全序列
所谓安全序列,就是指如果系统按照这种序列分配资源,则每个进程都能顺利完成。只要能找出一个安全序列,系统就是安全状态。当然,安全序列可能有多个。
什么是系统的不安全状态,与死锁有何联系
如果分配了资源之后,系统中找不出任何一个安全序列,系统就进入了不安全状态。这就意味着之后可能所有进程都无法顺利的执行下去。当然,如果有进程提前归还了一些资源,那系统也有可能重新回到安全状态,不过我们在分配资源之前总是要考虑到最坏的情况。
如果系统处于安全状态,就一定不会发生死锁。如果系统进入不安全状态,就可能发生死锁(处于不安全状态未必就是发生了死锁,但发生死锁时一定是在不安全状态)
如何避免系统进入不安全状态——银行家算法
因此可以在资源分配之前预先判断这次分配是否会导致系统进入不安全状态,以此决定是否答应资源分配请求。这也是“银行家算法”的核心思想。
银行家算法
用于避免死锁
数据结构
长度为m的一维数组Available表示还有多少可用资源
n*m矩阵Max表示各进程对资源的最大需求数
n*m矩阵Allocation表示已经给各进程分配了多少资源
Max-Allocation=Need矩阵表示各进程最多还需要多少资源
用长度为m的一位数组Request表示进程此次申请的各种资源数
步骤
1.检查此次申请是否超过了之前声明的最大需求数
2.检查此时系统剩余的可用资源是否还能满足这次请求
3.试探着分配,更改各数据结构
4.用安全性算法检查此次分配是否会导致系统进入不安全状态
安全性算法步骤
检查当前剩余可用资源是否能满足某个进程的最大需求,如果可以,就把该进程加入安全序列,并把该进程持有的资源全部回收
不断重复上述过程,看最终是否能让所有进程都加入安全序列
允许死锁发生
死锁的检测和解除
死锁的检测
数据结构:资源分配图
两种结点
进程结点:对应一个进程
资源结点:对应一类资源,一类资源可能有多少个
两种边
进程结点→资源结点(请求边):表示进程想申请几个资源(每条边表示一个)
资源节点→进程结点(分配边):表示已经为进程分配了几个资源(每条边表示一个)
死锁检测算法
依次消除与不阻塞进程相连的边,直到无边可消,若能消除所有的边,则称该图是可完全简化的
注:所谓不阻塞进程是指其申请的资源数还足够的进程
死锁定理:若资源分配图是不可完全简化的,说明此时系统死锁
用死锁检测算法化简资源分配图后,还连着边的那些进程就是死锁进程
死锁的解除
主要方法
资源剥夺法
挂起(暂时放到外存上)某些死锁进程,并抢占它的资源,将这些资源分配给其他的死锁进程。但是应防止被挂起的进程长时间得不到资源而饥饿
撤销进程法(终止进程法)
强制撤销部分、甚至全部死锁进程,并剥夺这些进程的资源。这种方式的优点是实现简单,但所付出的代价可能会很大。因为有些进程可能已经运行了很长时间,已经接近结束了,一旦被终止可谓功亏一篑,以后还得从头再来。
进程回退法
让一个或多个死锁进程回退到足以避免死锁的地步。这就要求系统要记录进程的历史信息,设置还原点。
如何决定“对谁动手”
1.进程优先级
2.已执行多少时间
3.还要多久完成
4.进程已使用多少资源
5.进程是交互式的还是批处理式的
第三章 内存管理
内存管理
内存的基础知识
什么是内存?有何作用?
内存可存放数据
程序执行前需要先放到内存中才能被CPU处理——缓和CPU与硬盘之间的速度矛盾
内存中也有一个一个的“小房间”,每个小房间就是一个“存储单元”
如果计算机“按字节编址”则每个存储单元大小为1字节,即1B,即8个二进制位
如果字长为16位的计算机“按字编址”,则每个存储单元大小为1个字;每个字的大小为16个二进制位
内存从0开始,每个地址对应一个存储单元
进程运行的基本原理
指令的工作原理
操作码+若干参数〔可能包含地址参数)
可见,我们写的代码要翻译成CPU能识别的指令。这些指令会告诉cPU应该去内存的哪个地址读/写数据,这个数据应该做什么样的处理。在这个例子中,我们默认让这个进程的相关内容从地址#0开始连续存放,指令中的地址参数直接给出了变量x的实际存放地址(物理地址)
逻辑地址(相对地址)vs物理地址(绝对地址)
程序经过编译、链接后生成的指令中指明的是逻辑地址(相对地址),即相对于进程的起始地址而言的地址
三种装入方式
绝对装入
编译时产生绝对地址
在编译时,如果知道程序将放到内存中的哪个位置,编译程序将产生绝对地址的目标代码。装入程序按照装入模块中的地址,将程序和数据装入内存。
绝对装入只适用于单道程序环境
可重定位装入(静态重定位)
装入时将逻辑地址转换为物理地址
编译、链接后的装入模块的地址都是从0开始的,指令中使用的地址、数据存放的地址都是相对于起始地址而言的逻辑地址。可根据内存的当前情况,将装入模块装入到内存的适当位置。装入时对地址进行“重定位”,将逻辑地址变换为物理地址(地址变换是在装入时一次完成的)
特点
在一个作业装入内存时,必须分配其要求的全部内存空间,如果没有足够的内存,就不能装入该作业。
作业一旦进入内存后,在运行期间就不能再移动,也不能再申请内存空间
动态运行时装入(动态重定位)
运行时将逻辑地址转换为物理地址,需设置重定位寄存器
编译、链接后的装入模块的地址都是从0开始的。装入程序把装入模块装入内存后,并不会立即把逻辑地址转换为物理地址,而是把地址转换推迟到程序真正要执行时才进行。因此装入内存后所有的地址依然是逻辑地址。这种方式需要一个重定位寄存器的支持。
重定位寄存器:存放装入模块存放的起始位置
优点
采用动态重定位时允许程序在内存中发生移动,并且可将程序分配到不连续的存储区中;在程序运行前只需装入它的部分代码即可投入运行,然后在程序运行期间,根据需要动态申请分配内存;便于程序段的共享,可以向用户提供一个比存储空间大得多的地址空间
从写程序到程序运行
编辑源代码文件
编译
由源代码文件生成目标模块(高级语言“翻译”为机器语言)
链接
由目标模块生成装入模块,链接后形成完整的逻辑地址
装入
将装入模块装入内存,装入后形成物理地址
三种链接方式
静态链接
装入前链接成一个完整装入模块
装入时动态链接
边装入边链接
运行时动态链接
运行时需要目标模块才装入并链接
优点
便于修改和更新,便于实现对目标模块的修改
内存管理的概念
内存空间的分配与回收
连续分配管理方式
单一连续分配
内存被分为系统区和用户区
内存中只能有一道用户程序,用户程序独占整个用户区空间
优点:实现简单,无外部碎片,可以采用覆盖技术扩充内存,不一定需要采取内存保护
缺点:只能用于单用户,单任务的操作系统中,有内部碎片,存储器利用率极低
固定分区分配
将整个用户空间划分为若干个固定大小的分区,在每个分区中只装入一道作业
分区大小相等
缺乏灵活性,但是很适合用于用一台计算机控制多个相同对象的场合
分区大小不等
增加了灵活性,可以满足不同大小的进程需求
操作系统需要建立一个数据结构——分区说明表,来实现各个分区的分配与回收。每个表项对应一个分区,通常按分区大小排列。每个表项包括对应分区的大小、起始地址、状态(是否已分配)
优点:实现简单,无外部碎片
缺点:当用户程序太大时,可能所有的分区都不能满足需求,此时不得不采用覆盖技术来解决,但这又会降低性能,会产生内部碎片,内存利用率低
动态分区分配
动态分区分配又称为可变分区分配。这种分配方式不会预先划分内存分区,而是在进程装入内存时,根据进程的大小动态地建立分区,并使分区的大小正好适合逃程的需要。因此系统分区的大小和数目是可变的
两种常用的数据结构
空闲分区表
空闲分区链
动态分区分配算法
首次适应算法(First Fit)
算法思想
每次都从低地址开始查找,找到第一个能满足大小的分区
如何实现
空闲分区以地址递增的次序排列,每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个分区
最佳适应算法(Best Fit)
算法思想
由于动态分区分配是一种连续分配方式,为各进程分配的空间必须是连续的一整片区域。因此为了保证当“大进程”到来时能有连续的大片空间,可以尽可能多地留下大片的空闲区,即,优先使用更小的空闲区
如何实现
空闲分区按容量递增次序链接。每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区
缺点
每次都选最小的分区进行分配,会留下越来越多的、很小的、难以利用的内存块,因此这种方法会产生很多的外部碎片
最坏适应算法(Worst Fit)/最大适应算法(Largest Fit)
算法思想
为了解决最佳适应算法的问题——即留下太多难以利用的小碎片,可以在每次分配时优先使用最大的连续空闲区,这样分配后剩余的空闲区就不会太小,更方便使用
如何实现
空闲分区按容量递减次序链接。每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区
缺点
每次都选最大的分区进行分配,虽然可以让分配后留下的空闲区更大,更可用,但是这种方式会导致较大的连续空闲区被迅速用完,如果之后有“大进程”到达,就没有内存分区可用了
邻近适应算法(Next Fit)
算法思想
首次适应算法每次都从链头开始查找的。这可能会导致低地址部分出现很多小的空闲分区,而每次分配查找时,都要经过这些分区,因此也增加了查找的开销。如果每次都从上次查找结束的位置开始检索,就能解决上述问题。
如何实现
空闲分区以地址递增的顺序排列(可排成一个循环链表)。每次分配内存时从上次查找结束的位置开始查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区
回收内存分区时,可能遇到四种情况
回收区之后有相邻的空闲分区
两个空闲的分区合为一个
回收区之前有相邻的空闲分区
两个空闲的分区合为一个
回收区前、后都有相邻的空闲分区
三个空闲的分区合为一个
回收区前、后都没有相邻的空闲分区
新增一项
没有内部碎片,但是有外部碎片
内部碎片,分配给某进程的内存区域中,如果有些部分没有用上
外部碎片,是指内存中的某些空闲分区由于太小而难以利用
可以通过紧凑(拼凑)技术来解决外部碎片
非连续分配管理方式
基本分页存储管理
什么是分页存储
将内存空间分为一个个大小相等的分区(比如:每个分区4KB),每个分区就是一个“页框”(页框=页帧=内存块=物理块=物理页面)。每个页框有一个编号,即“页框号”(页框号=页帧号=内存块号=物理块号=物理页号),页框号从0开始
将进程的逻辑地址空间也分为与页框大小相等的一个个部分,每个部分称为一个“页”或“页面”。每个页面也有一个编号,即“页号”,页号也是从0开始
操作系统以页框为单位为各个进程分配内存空间。进程的每个页面分别放入一个页框中。也就是说,进程的页面与内存的页框有一一对应的关系
重要的数据结构——页表
页表通常存在PCB种
一个进程对应一张页表
进程的每个页面对应一个页表项
每个页表项由“页号”和“块号”组成
页表记录进程页面和实际存放的内存块之间的映射关系
重要考点
计算机中内存块的数量→页表项中块号至少占多少字节
页表记录的只是内存块号,而不是内存块的起始地址
如何实现地址的转换
确定逻辑地址A对应的“页号”P
页号=逻辑地址/页面长度(取除法的整数部分)
找到P号页面在内存中的起始地址(需要查页表)
确定逻辑地址A的“页内偏移量”W
页内偏移量=逻辑地址%页面长度(取除法的余数部分)
逻辑地址A对应的物理地址=P号页面在内存中的起始地址+页内偏移量W
结论:如果每个页面大小为2B,用二进制数表示逻辑地址,则末尾K位即为页内偏移量,其余部分就是页号
逻辑地址结构
基本地址变换机构
页表寄存器
存放页表在内存中的起始地址F和页表长度M
页表的始址和页表长度放在进程控制块PCB中
地址变换过程
1.计算页号P和页内偏移量W
2.比较页号P和页表长度M,若P≥M,则产生越界中断,否则继续执行
3.页表中页号P对应的页表项地址=页表起始地址F+页号P*页表项长度,取出该页表项内容b,即为内存块号
4.E=b*L+W,用得到的物理地址E去访存
注意
页内偏移量位数与页面大小之间的关系
页式管理中地址是一维的
每个页表项的长度是相同的,页号是“隐含”的
实际应用中,通常使一个页框恰好能放入整数个页表项
为了方便找到页表项,页表一般是放在连续的内存块中的
具有快表的地址变换机构
什么是快表
快表,又称联想寄存器(TLB,translation lookaside buffer ),是一种访问速度比内存快很多的高速缓存(TLB不是内存!),用来存放最近访问的页表项的副本,可以加速地址变换的速度。与此对应,内存中的页表常称为慢表
引入快表后,地址的变换过程
1.CPU给出逻辑地址,由某个硬件算得页号、页内偏移量,将页号与快表中的所有页号进行比较
2.如果找到匹配的页号,说明要访问的页表项在快表中有副本,则直接从中取出该页对应的内存块号,再将内存块号与页内偏移量拼接形成物理地址,最后,访问该物理地址对应的内存单元。因此,若快表命中,则访问某个逻辑地址仅需一次访存即可
3.如果没有找到匹配的页号,则需要访问内存中的页表,找到对应页表项,得到页面存放的内存块号,再将内存块号与页内偏移量拼接形成物理地址,最后,访问该物理地址对应的内存单元。因此,若快表未命中,则访问某个逻辑地址需要两次访存(注意:在找到页表项后,应同时将其存入快表,以便后面可能的再次访问。但若快表已满,则必须按照一定的算法对旧的页表项进行替换)
局部性原理
时间局部性:如果执行了程序中的某条指令,那么不久后这条指令很有可能再次执行;如果某个数据被访问过,不久之后该数据很可能再次被访问(因为程序中存在大量的循环)
空间局部性:一旦程序访问了某个存储单元,在不久之后,其附近的存储单元也很有可能被访问(因为很多数据在内存中都是连续存放的)
两级页表
单级页表存在的问题
所有页表项必须连续存放,页表过大时需要很大的连续空间
在一段时间内并非所有页面都用得到,因此没必要让整个页表常驻内存
两级页表
将长长的页表再分页
为离散分配的页表再建立一张页表,称为页目录表/外层页表/顶级页表
逻辑地址结构:(—级页号,二级页号,页内偏移量)
如何实现地址变换
1.按照地址结构将逻辑地址拆分成三部分
2.从PCB中读出页目录表始址,根据一级页号查页目录表,找到下一级页表在内存中的存放位置
3.根据二级页号查表,找到最终想访问的内存块号
4.结合页内偏移量得到物理地址
几个细节
多级页表中,各级页表的大小不能超过一个页面。若两级页表不够,可以分更多级
多级页表的访存次数(假设没有快表机构)——N级页表访问一个逻辑地址需要N+1次访存
段页式存储管理
分页、分段管理方式中最大的优缺点
内存空间的扩展(实现虚拟性)
覆盖技术
用来解决“程序大小超过物理内存总和的问题”
思想
将程序分为多个段(多个模块)常用的段常驻内存,不常用的段在需要时调入内存
内存中分为一个“固定区”和若干个“覆盖区”
一个固定区
需要常驻内存的段放在“固定区”中,调入后就不再调出(除非运行结束)
若干覆盖区
不常用的段放在“覆盖区”,需要用到时调入内存,用不到时调出内存
必须由程序员声明覆盖结构,操作系统完成自动覆盖
缺点:对用户不透明,增加了用户编程负担
只用于早期操作系统
交换(对换)技术
内存空间紧张时,系统将内存中某些进程暂时换出外存,把外存中某些已具备运行条件的进程换入内存(进程在内存与磁盘间动态调度)
具有对换功能的操作系统中,通常把磁盘空间分为文件区和对换区两部分。文件区主要用于存放文件,主要追求存储空间的利用率,因此对文件区空间的管理采用离散分配方式;对换区空间只占磁盘空间的小部分,被换出的进程数据就存放在对换区。由于对换的速度直接影响到系统的整体速度,因此对换区空间的管理主要追求换入换出速度,因此通常对换区采用连续分配方式(学过文件管理章节后即可理解)。总之,对换区的I/O速度比文件区的更快
注意:PCB会常驻内存,不会被换出外存
覆盖与交换的区别
覆盖是在同一个程序或进程中的
交换是在不同进程(或作业)之间的
虚拟存储技术
传统存储管理方式的特征、缺点
一次性
作业必须一次性全部装入内存后才能开始运行,会造成两个问题
1.作业很大时,不能全部装入内存,导致大作业无法运行
2.当大量作业要求运行时,由于内存无法容纳所有作业,因此只有少量作业能运行,导致多道程序并发度下降
驻留性
一旦作业被装入内存就会一直驻留在内存中
局部性原理
空间局部性
一旦程序访问了某个存储单元,在不久之后,其附近的存储单元也很有可能被访问(因为很多数据在内存中都是连续存放的)
时间局部性
如果执行了程序中的某条指令,那么不久后这条指令很有可能再次执行;如果某个数据被访问过,不久之后该数据很可能再次被访问(因为程序中存在大量的循环)
高速缓存技术
使用频繁的数据放到更高速的存储器中
虚拟内存的定义和特征
将程序中很快会用到的部分装入内存,暂时用不到的部分留在外存,就可以让程序开始执行,程序执行过程中,当所访问的信息不在内存时,由操作系统负责将所需信息从外存调入内存,然后继续执行程序,若内存空间不够,由操作系统负责将内存中暂时用不到的信息换出到外存
特征
多次性
无需在作业运行时一次性全部装入内存,而是允许被分成多次调入内存
对换性
在作业运行时无需一直常驻内存,而是允许在作业运行过程中,将作业换入换出
虚拟性
从逻辑上扩充了内存的容量,使用户看到的内存容量,远大于实际的容量
如何实现虚拟内存技术
建立在离散分配的内存管理方式基础上
虚拟内存的实现
请求分页存储管理
地址转换
负责程序的逻辑地址与物理地址的转换
三种装入方式
内存保护
保证各进程在自己的内存空间内运行,不会越界访问
两种方式
设置一对上、下限寄存器
利用重定位寄存器(基址寄存器)、界地址寄存器(限长寄存器)进行判断。重定向寄存器中存放的是进程的起始物理地址,界地址寄存器中存放的是进程的最大逻辑地址
页面分配策略
驻留集
指请求分页存储管理中给进程分配的物理块的集合
页面分配、置换策略
固定分配VS可变分配
固定分配
操作系统为每个进程分配一组固定数目的物理块,在进程运行期间不再改变。即驻留集大小不变
可变分配
先为每个进程分配一定数目的物理块,在进程运行期间,可根据情况做适当的增加或减少。即,驻留集大小可变
区别在于进程运行期间驻留集大小是否可变
局部置换VS全局置换
局部置换
发生缺页时只能选进程自己的物理块进行置换
全局置换
可以将操作系统保留的空闲物理块分配给缺页进程,也可以将别的进程持有的物理块置换到外存,再分配给缺页进程
区别在于发生缺页时是否只能从进程自己的页面中选择一个换出
固定分配局部置换
系统为每个进程分配一定数量的物理块,在整个运行期间都不改变。若进程在运行中发生缺页,则只能从该进程在内存中的页面中选出一页换出,然后再调入需要的页面。这种策略的缺点是:很难在刚开始就确定应为每个进程分配多少个物理块才算合理。(采用这种策略的系统可以根据进程大小、优先级、或是根据程序员给出的参数来确定为一个进程分配的内存块数)
可变分配全局置换
刚开始会为每个进程分配一定数量的物理块。操作系统会保持一个空闲物理块队列。当某进程发生缺页时,从空闲物理块中取出一块分配给该进程;若已无空闲物理块,则可选择一个未锁定的页面换出外存,再将该物理块分配给缺页的进程。采用这种策略时,只要某进程发生缺页,都将获得新的物理块,仅当空闲物理块用完时,系统才选择一个未锁定的页面调出。被选择调出的页可能是系统中任何一个进程中的页,因此这个被选中的进程拥有的物理块会减少,缺页率会增加
只要缺页就给分配新物理块
可变分配局部置换
刚开始会为每个进程分配一定数量的物理块。当某进程发生缺页时,只允许从该进程自己的物理块中选出一个进行换出外存。如果进程在运行中频繁地缺页,系统会为该进程多分配几个物理块,直至该进程缺页率趋势适当程度;反之,如果进程在运行中缺页率特别低,则可适当减少分配给该进程的物理块。
要根据发生缺页的频率来动态地增加或减少进程的物理块
调入页面的时机
预调页策略
根据局部性原理,一次调入若干个相邻的页面可能比一次调入一个页面更高效。但如果提前调入的页面中大多数都没被访问过,则又是低效的。因此可以预测不久之后可能访问到的页面,将它们预先调入内存,但目前预测成功率只有50%左右。故这种策略主要用于进程的首次调入,由程序员指出应该先调入哪些部分。
一般用于进程运行前
请求调页策略
进程在运行期间发现缺页时才将所缺页面调入内存。由这种策略调入的页面一定会被访问到,但由于每次只能调入一页,而每次调页都要磁盘I/O操作,因此I/O开销较大
进程运行时,发现缺页再调页
从何处调页
对换区——采用连续存储方式,速度更快
文件区——采用离散存储方式,速度更慢
对换区足够大
运行将数据从文件区复制到对换区,之后所有的页面调入、调出都是在内存与对换区之间进行
对换区不够大
不会修改的数据每次都从文件区调入;会修改的数据调出到对换区,需要时再从对换区调入
UNIX方式
第一次使用的页面都从文件区调入;调出的页面都写回对换区,再次使用时从对换区调入
抖动(颠簸)现象
刚刚换出的页面马上又要换入内存,刚刚换入的页面马上又要换出外存,这种频繁的页面调度行为称为抖动,或颠簸。产生抖动的主要原因是进程频繁访问的页面数目高于可用的物理块数(分配给进程的物理块不够)
工作集
在某段时间间隔里,进程实际访问页面的集合
工作集大小可能小于窗口尺寸
驻留集大小一般不能小于工作集大小,否则进程运行过程中将频繁换页