计算机组成:存储器

旧巷老猫 提交于 2020-01-29 18:25:18

存储器

存储器的分类


磁芯存储器:通过磁性材料的磁场方向来存储信息,X、Y方向通电来改变磁场方向

半导体存储器是易失的,剩下的是非易失的



Flash Memory:半导体存储器,速度比磁盘快、比存储器慢,用作U盘,也可作为高性能硬盘和主存和辅助存储器之间的缓存层(SSD)

https://zhidao.baidu.com/question/72838372.html

目前市面上出现了大量的便携式存储设备,这些设备大部分是以半导体芯片为存储介质。采用半导体存储介质的优点在于可以把体积变的很小,便于携带;与硬盘类存储设备不同,它没有机械结构,所以不怕碰撞,没有机械噪声;与其它存储设备相比,耗电量很小;读写速度也非常快。半导体存储设备的主要缺点就是价格较高和容量有限。现在的半导体存储设备普遍采用了一种叫做“Flash Memory”的技术。从字面上可理解为闪速存储器,它的擦写速度快是相对于EPROM而言的。Flash Memory是一种非易失型存储器,因为掉电后,芯片内的数据不会丢失,所以很适合用来作电脑的外部存储设备。它采用电擦写方式、可重复擦写10万次、擦写速度快、耗电量小。

只能说它是一种特殊的半导体存储器,非易失


trade-off:复杂的存储体系是在速度和价格之间权衡的结果

通过软硬件相结合的方式,将存储体系连接为一个整体,使得从某一级程序员来看,存储是一个高速、大容量、低价格的透明整体

存储层次


分为缓存-主存、主存-辅存两个层次,缓存-主存通过硬件连接(为了提高速度)并且使用主存的寻址方式;主存-辅存通过软硬件结合的方式连接(解决容量为主,速度不太重要)并且使用虚拟地址解决主存和辅存寻址方式不同的问题。

主存


主存的技术指标


存取时间:从存储器给出地址到得到稳定的数据输出或者输入的时间间隔长度

一般来说,存储周期比存储时间长

半导体存储芯片


通过地址线宽度和数据线宽度计算芯片容量:


容易理解

片选线:现在的存储器都集成了多个芯片,片选线用来选择使用哪一个或者哪几个芯片


读写控制线可以用一根,也可以用两根:

半导体储存芯片的译码驱动方式

  1. 线选法


输入是4位,所以有2的4次方个地址,也就是16。而输出的是每一个地址对应的数据长度,也就是8位

这种线性方法限制了容量的增大

  1. 重合法


X、Y分别为行和列

行列中分别只能有一个是有效的,所以只有一个会进行输出

寻址方式由线性变成了二维,在有限的芯片大小上大大增加了存储的数据量

RAM

RAM分为静态RAM和动态RAM

静态RAM(SRAM)


核心是一个触发器,双稳态电路




WE:读写(低读高写)控制、CS:片选信号(只有在低电平的时候该芯片才会被选中)


每个列选择信号控制四列,所以每次四列同时输出,也就是同时输出4位

动态RAM(DRAM)

动态RAM时候电容,有电是1,没电是0


如果要读的话,先给预充电管充电,然后读选择线被导通

除了三管之外,还有单管的




刷新放大器:对电容上的信息进行定期刷新,以应对电容漏电

对于单管芯片:


注意它是1位的

对于地址要输入两次,行地址一次,列地址一次


读放大器是跷跷板电路:一端设置电平为1,则另外一端就会变成0

动态RAM刷新

刷新只和行地址有关,和列地址没关系:一行一行刷新

集中刷新:


在一个刷新时间间隔内,后面的128个存取周期是专门用来进行刷新的,无论是读写都无法在这段时间内进行,这段时间称为“死区”:


分散刷新:

把刷新分布在每一次读写操作中,刷新过度了


异步刷新:分散刷新和集中刷新的结合


其实总的刷新占用时间和集中刷新是一样,但是可以通过合理设计,将刷新安排在指令译码阶段,就不会出现“死区”现象了

动态RAM和静态RAM的对比

  • 静态RAM结构比动态RAM复杂,相应的它的集成度也就比较高,功耗也比较大(一直有管子在通电,所以才不需要刷新)
  • 动态RAM行地址和列地址的传输可以通过一组地址线依次传送,地址线和芯片的引脚也就因此可以减少了;但是静态RAM为了体现它的高速访问,所以一般不这样做,所以它的芯片引脚也就比较多。


正因如此,DRAM一般用于做内存(主存),SRAM用于做缓存

ROM

发展历程

类型


有无MOS管是厂家生产时就确定的,所以用户无法对ROM进行修改


使用熔丝的硬核一次性编程,编错了就再买芯片


想起了被大物支配的恐惧

通过紫外线擦除:


RAM and ROM in mobile phone

来源:https://www.zhihu.com/question/302518700

现在智能手机配置中的ROM指的是EEProm(电擦除可写只读存储器)类似于计算机的硬盘,手机里能存多少东西就看他的容量了。而机子的反应速度看的是RAM,就像电脑中的内存相似。容量越大机子运行越快

主存储器和CPU的连接

存储器容量扩展

  • 位扩展

  • 子扩展


使用11根地址线,其中一根是用来进行片选的,如果它为0,则表示使用的是第一个芯片,其余的10根地址线上的地址指的是第一个芯片上的地址;如果为1,则使用第二个
  • 字和位同时进行拓展


两个芯片为一组

存储器和CPU的连接

保存系统信息和配置的要放到ROM中(因为这些数据修改不多),用户数据要放到RAM

以一道例题说明


根据题目要求,上面的那个2KX8位的是系统程序区(选用ROM),下面的1KX8位是用户程序区(选用RAM)

根据题目要求,选用芯片



剩下的地址线作为芯片选择信号(选择是用RAM还是ROM):

使用138译码器,有CBA三个输入和三个控制端(G1高电平有效,G2A和G2B低电平有效)。但是注意CPU还有一个MREQ信号用来表示访问的是主存(低电平时)还是IO(高电平时),这个信号也要接入片选信号,与G2B相连接,以保证只有在CPU真正想要访问主存(MREQ为低电平)时才会访问主存

由上图我们也可以看到,对于RAM,除了A0-A9作为有效的地址输入外,我们还要求A10应该是0才是表示对RAM的一次访问,所以我们需要对A10的值进行验证,防止A10为1、也就是本来没有打算访问该RAM时错误地访问了该RAM:

存储器的校验

  1. 为什么要对储存器的信息进行校验

    内存中的内容也会出错的(电子环境复杂时),信息可能会出错

    甚至是台式电脑,都会对信息进行校验

  2. 如何编码以校验

合法代码集合


如果合法代码如上,即使出错了、某一位由零变成一或者由一变成了零,出错的代码依然在合法代码集合中,这样是很难甚至是没有办法设置进行检验的


这种情况下,我们可以检测出代码是出错的,但是只凭借出错后的代码,我们没有办法推出到底是哪一位代码出错了(因为合法代码集合中有多个代码可以变成该出错代码)

介绍一下三倍存储方式:用三个0和三个1来表示0和1,这样如果有一位出错的话(一位出错的概率最大,超过90%,这一点从概率上讲也能理解,连着出错概率太小了)立马就可以知道是哪一位出错了.


也有四倍存储,但是这个很鸡肋:


五倍存储就好多了:


具体用几位就看具体使用环境了,是正确性重要还是速度和容量重要


合法代码集合中各个代码的差异越大,检测能力越强,这就引出了下一个概念:

汉明码

关于汉明码,我这篇文章中有:https://www.cnblogs.com/jiading/p/11876898.html讲过,这里会更深入的去学


但是汉明码使用的不是这样的一种划分方式,而是一种非划分方式:



注意我们不是说这里存放的数据就是1-7,而是说这些位置的编号是1-7,因为这样编号才能使得我们的各个分组的二进制校验结果拼起来就是出错位置

为什么校验位要放在1,2,4上?因为校验是对单个的分组进行校验,它只能对该分组内进行作用,所以不能放在和其他组公用的位置


如果汉明码检测位有k位,原数有n位,则一共有n+k个可能出错的位置,还有一种情况是没错的,所以2^k种汉明码检测位的结果要能表示该n+k+1中可能的状态





汉明码的纠错过程:




如果判明了是检验位有错,不影响原文信息,不纠错也行

提高访问存储器的速度

存储器的访问速度跟不上CPU速度的提升,现在是限制计算机整体性能的一个主要因素之一

提高速度的措施有:

调整主存结构


存储器的字长比CPU字长长,每次访问多取出几个字放在数据存储器上以便于之后使用,减少和存储器的交互,这也是顺应程序访问的局部性原理的

缺点有:

  1. 写入单个字长数据时会比较麻烦
  2. 如果下一次不访问相邻字就没用了


多个独立的存储器,可以并行使用

地址的前几位是用来区分存储器的

缺点有:

  1. 对于访问相邻资源没用,因为他们非常可能都在一台存储器上,只有一台在工作
  2. 适合容量的扩展,而不是提高速度

低位交叉解决了高位交叉所存在的问题

低位交叉下,相邻数据是存储在不同存储器上的,这种并行效果好




启动一个存储器的访问操作,在一个τ时间间隔之后,启动对下一个存储器的访问操作,这样就可以实现前一个刚刚传输完,后一个就接着传输,线路就不会空闲了


如果用单个存储器的话,读取四个字所需的时间是4T+τ

高性能部件

同步DRAM:


速度要和CPU匹配

RDRAM:


带Cache的DRAM

高速缓存存储器

Cache的工作原理


Cache也可以分块,和主存的块大小是相同的

一个块在Cache和主存之间传输的时候是整体传输,块内顺序不变

Cache的标记记录了主存的主存块号,用于识别


块太小的话,没运行几步就需要再次去读,再次读就不一定还在cache中了,所以块小了命中率也会小,但是太大的话会占用其他信息的进入机会,也会减小命中率


命中率是最核心的指标

cache的基本结构


注意cache的地址映射规则

核心的几块是:

cache的读写


cache的写要解决和主存的一致性问题

写直达法访问内存比较频繁

写回法可能造成不一致,尤其是并行系统

cache的改进


现在的处理器每个核有自己的cache,多核还有共用的cache,一般cpu内的cache能达到三级


将指令和数据分开,避免在流水的时候造成指令冲突

cache的地址映射

  1. 直接映射


    内存的某个块只能映射到某个指定的cache中

    主存字块在图中表示0-2^c-1,cache字块地址表示是主存储器的哪一个区(也就是去cache第几个字块去找)


    结构简单速度快,但是cache的利用率不能得到保证、冲突的概率高,即使cache其他位置是空闲的也不能存入,比较僵硬。

    一般用在靠近CPU的cache,这些cache对速度要求比较高

  2. 全相连映射

    cache的任何位置都可以放

    缺点就是找起来麻烦,比较的长度也长,相比于第一种就是比较时没有捷径走


    一般用在距离CPU最远的cache上,因为这些cache对速度的强调比较低、对利用率的强调更高
  3. 组相连映射

    是1和2的融合

    把主存储器分区,每个区的大小依然和cache的组数是相同的(注意cache的一个组包括不止一个块)

    主存储器中每个区的字块可以放在cache相应的组的任何块上


    相比1好一些,比2也好找不少

    这种方式是现代计算机中cache常用的方式

    一般用在中间的一些cache中

替换算法

选择哪一个cache块从cache中退出


第二种办法比较好

辅助存储器

辅助存储器的特点是不直接和CPU交换信息


固定磁头式硬盘需要的磁头多,但是速度比较快;移动磁头式硬盘则相反






易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!