-
-
wangjimima | 当前状态:在线
总积分:299 2024年可用积分:0
注册时间: 2017-07-27
最后登录时间: 2018-02-07
-
嵌入式Linux内存管理的一些知识点总结
wangjimima 发表于 2017/11/20 14:47:10 1328 查看 0 回复 [上一主题] [下一主题]
手机阅读
感觉这个内存管理的知识点还真的需要专门的去理解一下,今天我们一起来学习学习。要求
1.不涉及linux内核的汇编知识,仅C语言层面解析
1.回答:汇编主要处理的是寄存器地址(包括内容)的计算,进行一部分的地址转换工作(当然,它是重要的);C语言处理了极大部分的系统内存管理工作。
2.虚拟地址、线性地址、物理地址三者映射关系
回答:
1.虚拟地址:程序员(在缩小范围估计是:应用程序员)直接看到的
2.线性地址:操作系统控制
3.物理地址:CPU内存地址(或者外部内存)
3.总结一点:虚拟地址通过段管理机制首先变换成一种中间地址形式--cpu32位的线性地址,然后使用分页管理机制将此地址映射到物理地址。
例子解析:
一个变量定义在一个进程里面,在程序中使用&操作符获取的地址(估计是偏移地址),将怎么映射呢?(或者它是什么地址,在进程中的位置如何)
1. 回答:因为,程序使用的都是虚拟地址,所以程序员拿到的变量地址是虚拟地址(它是经过编译器处理过的,并由系统指映射线性地址,分配物理内存的)。
2. 同时,一个变量的地址(虚拟地址)是不会改变的(只要程序代码不改变,或者不在编译),但是,改变运行(不同的时间,相隔一段时间在运行的话),物理地址是会改变的。正是因为操作系统的内存管理作用(线性地址映射到物理地址,是一个动态的过程)。
malloc函数从调用、分配到返回的过程是?
1. 回答:函数调用系统函数,系统函数进入了内核态,引起中断(或其他,异常处理等工作),操作系统得知需要额外的增长空间以提供使用,所以使用分页机制来映射到可以使用的物理地址(没有有用数据,或不被映射),从而使得虚拟地址有了真实的物理地址映射管理,可以正常使用了。
2. malloc实际上,并不是用户调用malloc后马上对物理地址与虚拟地址之间进行映射,只有在用户对申请的内存空间进行读写异常操作才会发生映射。(具体看《注释》的13.1.6需求加载机制),总结一句:在实际需要时才加载执行文件中页面的方式。
页表和页目录表存放位置(所处的系统空间)是?
1. 回答:系统初始化过程中,主动往物理内存填写页表信息。这就是我们操作系统需要做的事情,填写和修改表的程序代码的编写。
线性地址转物理地址是谁来做呢?
1. 回答:设置好页表信息后,CPU每次访问内存都通过MMU来查表并转换出物理地址。是硬件自动操作。
所谓的内存(物理内存,或物理地址,或物理空间)是指?
1. 回答:就是内存,RAM(rw),而磁盘(或者是其他的硬盘性质的存储介质)是作为程序或数据存储的空间,它并不参与到与CPU的指令(数据)传输,而是先将它自己的数据放到内存(也就是RAM,物理内存里面),再由内存和CPU之间处理。
只是作为一个例子,让我们假定您的程序正在访问地址为 629 的内存。不过,虚拟内存系统不需要将其存储在位置为 629 的 RAM 中。实际上,它甚至可以不在 RAM 中 —— 如果物理 RAM 已经满了,它甚至可能已经被转移到硬盘上!由于这类地址不必反映内存所在的物理位置,所以它们被称为虚拟内存。操作系统维持着一个虚拟地址到物理地址的转换的表,以便计算机硬件可以正确地响应地址请求。嵌入式物联网等系统学习请加企鹅意义气呜呜吧久零就易,并且,如果地址在硬盘上而不是在 RAM 中,那么操作系统将暂时停止您的进程,将其他内存转存到硬盘中,从硬盘上加载被请求的内存, 然后再重新启动您的进程。这样,每个进程都获得了自己可以使用的地址空间,可以访问比您物理上安装的内存更多的内存。
一个进程被创建,linux系统肯定是分配给他一个0的虚拟地址?
回答:对的,每个进程空间的0x00虚拟地址开始的线性区都会被映射到一个用户态没有权限访问的页上,通过这样的映射,内核可以保证没有别的页会映射到这个区域。
如同IBM:内存管理的内幕提及到的,malloc内部的系统调用函数,也就是实现malloc的内部算法
1. 在mallo从内部使用映射函数(系统调用),brk()和mmap():链接1
为什么进程创建后,子进程会继承父进程的一部分信息呢?
1. 回答:子进程实际上的父进程的一个拷贝,共同拥有相同的物理页面,为了节约空间,子进程以只读方式共享父进程的物理页面(同时父进程也把它自己设置为只读方式),任意一方进行写操作,就会出现异常(之后就是内核处理异常)。总结一句:这样可以避免不必要的内存页面复制的开销。
对CPU的内存管理(MMU)和linux系统的内存管理两者的理解:
上面的一段话,其实是告诉我们:在CPU提供MMU的情况下(也就是分段、分页机制),首先是分段机制做第一步的虚拟地址到线性地址转换,然后由操作系统实现(这就是意味着linux系统会有大量的内存管理代码的实现方法)分页机制(同时选择CPU某一引脚来决定是否采用分页机制),直到进程的虚拟地址映射到可用的物理地址上面。
这意味着,从虚拟地址到物理地址的转换情况如下:
至于虚拟内存的哪个页面映射到物理内存的哪个页帧,这是通过页表(Page Table)来描述的,页表保存在物理内存中,MMU会查找页表来确定一个虚拟地址应该映射到什么物理地址。总结一下这个过程:
1. 在操作系统初始化或者分配、释放内存时,会执行一些指令在物理内存中填写页表,然后用指令设置MMU,告诉MMU页表在物理内存中的什么位置。
2. 设置好之后, CPU每次执行访问内存的指令都会自动引发MMU做查表和地址转换的操作,地址转换操作完全由硬件完成,不需要用指令控制MMU去做。
MMU除了提供地址转换机制之外,还提供内存保护机制,解析如下:
1. 用户模式和特权(也就是内核)模式的区分
2. 设置每个内存页面的访问权限(读、写、执行)
1. 注意:物理内存本身是不限制访问的,正是MMU的内存保护机制的作用
具体的处理过程如下:
这样设定好之后,当CPU要访问一个VA时, MMU会检查CPU当前处于用户模式还是特权模式,访问内存的目的是读数据、写数据还是取指令,如果和操作系统设定的页面权限相符,就允许访问,把它转换成PA,否则不允许访问,产生一个异常(Exception)。