一:引子

我们在前面分析过,在linux内存管理中,内核使用3G—>4G的地址空间,总共1G的大小。而且有一部份用来做非连续空间的物理映射(vmalloc).除掉这部份空间之外,只留下896M大小供内核映射到物理地址。通常,我们把物理地址超过896M的区域称为高端内存。内核怎样去管理高端内存呢?今天就来分析这个问题。

内核有三种方式管理高端内存。第一种是非连续映射。这我们在前面的vmalloc中已经分析过了,在vmalloc中请求页面的时候,请求的是高端内存,然后映射到VMALLOC_START与VMALLOC_END之间。这一过程不再赘述。第二种方式是永久内存映射。最后一种方式叫临时内核映射。

接下来,详细的分析一下第二种和第三种方式。对于第一种方式,我们在之前已经分析过了。

借鉴网上的一个图,来说明一下这三种方式的大概映射过程。

二:永久内存映射

永久内存映射在内核的接口为:kmap()/kunmap().在详细分析代码之前,有必须弄懂几个全局变量的含义:

PKMAP_BASE:永久映射空间的起始地址。永久映射空间为4M。所以它最多能映射4M/4K=1024个页面。

pkmap_page_table:永久映射空间对应的页目录。我们来看一下它的初始化:

pkmap_page_table = pte_offset_kernel(pmd_offset(pgd_offset_k

(PKMAP_BASE), PKMAP_BASE), PKMAP_BASE);

实际上它就是PKMAP_BASE所在的PTE

LAST_PKMAP:永久映射空间所能映射的页面数。在没有开启PAE的情况下被定义为1024

highmem_start_page:高端内存的起始页面

pkmap_count[PKMAP]:每一项用来对应映射区域的引用计数。关于引用计数,有以下几种情况:

为0时:说明映射区域可用。为1时:映射区域不可用,因为自从它最后一次使用以来。TLB还没有将它刷新

为N时,有N-1个对象正在使用这个页面

last_pkmap_nr:在建立永久映射的时候,最后使用的序号

代码如下:

void *kmap(struct page *page)

{

//可能引起睡眠。在永久映射区没有空闲地址的时候

might_sleep();

//如果不是高端页面。那它在直接映射空间已经映射好了,直接计算即可

if (page < highmem_start_page)

return page_address(page);

//如果是高端页面。即在永久映射区为其分配地址

return kmap_high(page);

}

转到kmap_high():

void fastcall *kmap_high(struct page *page)

{

unsigned long vaddr;

spin_lock(&kmap_lock);

//取页面地址

vaddr = (unsigned long)page_address(page);

//如果页面还没有映射到线性地址,为它建立好映射

if (!vaddr)

vaddr = map_new_virtual(page);

//有一个引用了,计数加1

pkmap_count[PKMAP_NR(vaddr)]++;

//如果计数小于2,这种情况是无效的。

if (pkmap_count[PKMAP_NR(vaddr)] < 2)

BUG();

spin_unlock(&kmap_lock);

return (void*) vaddr;

}

map_new_virtual()用于将一个page映射到永久映射区域。它的实现如下:

static inline unsigned long map_new_virtual(struct page *page)

{

unsigned long vaddr;

int count;

start:

count = LAST_PKMAP;

for (;;) {

//从last_pkmap_nr开始搜索。大于LAST_PKMAP时,又将它从0开始

//其中LAST_PKMAP_MASK被定义为:(LAST_PKMAP-1)

last_pkmap_nr = (last_pkmap_nr + 1) & LAST_PKMAP_MASK;

//如果last_pkmap_nr等于0,也就是从头开始了

if (!last_pkmap_nr) {

//扫描所有计数为1的项,将它置为零。如果还有映射到页面。断开它的映射关系

flush_all_zero_pkmaps();

count = LAST_PKMAP;

}

//如果计数为0,可用,就用它了,跳出循环

if (!pkmap_count[last_pkmap_nr])

break;   /* Found a usable entry */

if (--count)

continue;

//遍历了整个区都无可用区间,睡眠

{

DECLARE_WAITQUEUE(wait, current);

__set_current_state(TASK_UNINTERRUPTIBLE);

add_wait_queue(&pkmap_map_wait, &wait);

spin_unlock(&kmap_lock);

schedule();

remove_wait_queue(&pkmap_map_wait, &wait);

spin_lock(&kmap_lock);

/* Somebody else might have mapped it while we slept */

//可能在睡眠的时候,其它进程已经映射好了,

if (page_address(page))

return (unsigned long)page_address(page);

//重新开始

goto start;

}

}

// #define PKMAP_ADDR(nr)  (PKMAP_BASE + ((nr) << PAGE_SHIFT))

//将序号转化为线性地址

vaddr = PKMAP_ADDR(last_pkmap_nr);

//将线性地址映射到page

set_pte(&(pkmap_page_table[last_pkmap_nr]), mk_pte(page, kmap_prot));

//将其引用计数置1

pkmap_count[last_pkmap_nr] = 1;

//更新page的线性地址

set_page_address(page, (void *)vaddr);

return vaddr;

}

Kunmap()的实现如下:

void kunmap(struct page *page)

{

//不能在中断中

if (in_interrupt())

BUG();

//如果不是高端页面,直接返回

if (page < highmem_start_page)

return;

//清除掉映射关系

kunmap_high(page);

}

转入kunmap_high():

void fastcall kunmap_high(struct page *page)

{

unsigned long vaddr;

unsigned long nr;

int need_wakeup;

spin_lock(&kmap_lock);

//取得页面的虚拟地址

vaddr = (unsigned long)page_address(page);

if (!vaddr)

BUG();

//将地址转换为序号

// #define PKMAP_NR(virt)  ((virt-PKMAP_BASE) >> PAGE_SHIFT)

nr = PKMAP_NR(vaddr);

need_wakeup = 0;

//计算引用计数

switch (--pkmap_count[nr]) {

case 0:

BUG();

case 1:

//如果只有一个引用了,说明这页面是空闲的。看看是否有进程在等待

//因为TLB刷新之后,会将其减1

need_wakeup = waitqueue_active(&pkmap_map_wait);

}

spin_unlock(&kmap_lock);

//唤醒等待的进程

if (need_wakeup)

wake_up(&pkmap_map_wait);

}

三:临时内存映射

临时内存映射在内核中的接口为:kmap_atomic()/kunmap_atomic()。它映射的地址是从FIXADDR_START到FIXADDR_TOP的区域。其中,每个cpu都在里面占用了一段空间。

在内核中,enum fixed_addresses表示各种临时映射所占的序号。结构如下:

enum fixed_addresses {

FIX_HOLE,

FIX_VSYSCALL,

#ifdef CONFIG_X86_LOCAL_APIC

FIX_APIC_BASE,     /* local (CPU) APIC) -- required for SMP or not */

#else

FIX_VSTACK_HOLE_1,

#endif

#ifdef CONFIG_X86_IO_APIC

FIX_IO_APIC_BASE_0,

FIX_IO_APIC_BASE_END = FIX_IO_APIC_BASE_0 + MAX_IO_APICS-1,

#endif

#ifdef CONFIG_X86_VISWS_APIC

FIX_CO_CPU,   /* Cobalt timer */

FIX_CO_APIC,  /* Cobalt APIC Redirection Table */

FIX_LI_PCIA,  /* Lithium PCI Bridge A */

FIX_LI_PCIB,  /* Lithium PCI Bridge B */

#endif

FIX_IDT,

FIX_GDT_1,

FIX_GDT_0,

FIX_TSS_3,

FIX_TSS_2,

FIX_TSS_1,

FIX_TSS_0,

FIX_ENTRY_TRAMPOLINE_1,

FIX_ENTRY_TRAMPOLINE_0,

#ifdef CONFIG_X86_CYCLONE_TIMER

FIX_CYCLONE_TIMER, /*cyclone timer register*/

FIX_VSTACK_HOLE_2,

#endif

FIX_KMAP_BEGIN,    /* reserved pte's for temporary kernel mappings */

FIX_KMAP_END = FIX_KMAP_BEGIN+(KM_TYPE_NR*NR_CPUS)-1,

#ifdef CONFIG_ACPI_BOOT

FIX_ACPI_BEGIN,

FIX_ACPI_END = FIX_ACPI_BEGIN + FIX_ACPI_PAGES - 1,

#endif

#ifdef CONFIG_PCI_MMCONFIG

FIX_PCIE_MCFG,

#endif

__end_of_permanent_fixed_addresses,

/* temporary boot-time mappings, used before ioremap() is functional */

#define NR_FIX_BTMAPS  16

FIX_BTMAP_END = __end_of_permanent_fixed_addresses,

FIX_BTMAP_BEGIN = FIX_BTMAP_END + NR_FIX_BTMAPS - 1,

FIX_WP_TEST,

__end_of_fixed_addresses

}

每一段序号都有自己的用途,例如APIC用,IDT用。FIX_KMAP_BEGIN与FIX_KMAP_END是分配给模块或者做做临时用途使用的。内核这样分配是为了保证同一个区不能有两上映射关系。我们在后面可以看到,如果一个区已经映射到了一个物理页面。如果再在这个区上建立映射关系,就会把它以前的映射覆盖掉。所以,内核应该根据具体的用途选择特定的序号,以免产生不可预料的错误。同时使用完临时映射之后应该立即释放当前的映射,这也是个良好的习惯.

FIX_KMAP_END的大小被定义成:FIX_KMAP_BEGIN+(KM_TYPE_NR*NR_CPUS)-1。也就是FIX_KMAP_BEGIN到FIX_KMAP_END的大小是KM_TYPE_NR*NR_CPUS.

KM_TYPE_NR的定义如下:

enum km_type {

/*

* IMPORTANT: don't move these 3 entries, be wary when adding entries,

* the 4G/4G virtual stack must be THREAD_SIZE aligned on each cpu.

*/

KM_BOUNCE_READ,

KM_VSTACK_BASE,

KM_VSTACK_TOP = KM_VSTACK_BASE + STACK_PAGE_COUNT-1,

KM_LDT_PAGE15,

KM_LDT_PAGE0 = KM_LDT_PAGE15 + 16-1,

KM_USER_COPY,

KM_VSTACK_HOLE,

KM_SKB_SUNRPC_DATA,

KM_SKB_DATA_SOFTIRQ,

KM_USER0,

KM_USER1,

KM_BIO_SRC_IRQ,

KM_BIO_DST_IRQ,

KM_PTE0,

KM_PTE1,

KM_IRQ0,

KM_IRQ1,

KM_SOFTIRQ0,

KM_SOFTIRQ1,

KM_CRASHDUMP,

KM_UNUSED,

KM_TYPE_NR

}

在smp系统中,每个CPU都有这样的一段映射区域

kmap_pte:FIX_KMAP_BEGIN项所对应的页表项.它的初始化如下:

#define kmap_get_fixmap_pte(vaddr)                      \

pte_offset_kernel(pmd_offset(pgd_offset_k(vaddr), (vaddr)), (vaddr))

void __init kmap_init(void)

{

kmap_pte = kmap_get_fixmap_pte(__fix_to_virt(FIX_KMAP_BEGIN));

}

#define __fix_to_virt(x)    (FIXADDR_TOP - ((x) << PAGE_SHIFT))

了解上述关系之后,可以看具体的代码了:

void *kmap_atomic(struct page *page, enum km_type type)

{

enum fixed_addresses idx;

unsigned long vaddr;

//如果页面不是高端内存

inc_preempt_count();

if (page < highmem_start_page)

return page_address(page);

//在smp中所对应的序号

idx = type + KM_TYPE_NR*smp_processor_id();

//在映射断中求取序号所在的虚拟地址

vaddr = __fix_to_virt(FIX_KMAP_BEGIN + idx);

#ifdef CONFIG_DEBUG_HIGHMEM

if (!pte_none(*(kmap_pte-idx)))

BUG();

#endif

//根据页面属性建立不同的页面项.并根据FIX_KMAP_BEGIN的页表项,求出序号所在的页表项

if (PageReserved(page))

set_pte(kmap_pte-idx, mk_pte(page, kmap_prot_nocache));

else

set_pte(kmap_pte-idx, mk_pte(page, kmap_prot));

//在TLB中刷新这个地址

__flush_tlb_one(vaddr);

return (void*) vaddr;

}

我们在这个过程看中,并没有去判断一个区域有没有被映射。但这样也有一个好处,就是不会造成睡眠,因为它总有一个区域可供其映射。与永久内核映射相比,速度显得稍微要快一点。

临时内核映射的断开接口为:kunmap_atomic()

void kunmap_atomic(void *kvaddr, enum km_type type)

{

//调试用,忽略

#ifdef CONFIG_DEBUG_HIGHMEM

unsigned long vaddr = (unsigned long) kvaddr & PAGE_MASK;

enum fixed_addresses idx = type + KM_TYPE_NR*smp_processor_id();

if (vaddr < FIXADDR_START) { // FIXME

dec_preempt_count();

preempt_check_resched();

return;

}

if (vaddr != __fix_to_virt(FIX_KMAP_BEGIN+idx))

BUG();

/*

* force other mappings to Oops if they'll try to access

* this pte without first remap it

*/

pte_clear(kmap_pte-idx);

__flush_tlb_one(vaddr);

#endif

dec_preempt_count();

preempt_check_resched();

}

我们在此看到,它并末对页面做特殊处理。

四总结:

其实,不管是那样的方式,原理都是一样的,都是在固定映射区外选定一个地址,然后再修改PTE项,使其指向相应的page。特别值得我们注意的是,因为kmap()会引起睡眠,所以它不能用于中断处理。但每一种映射方式都有自己的优点和缺点,这需要我们在写代码的时候仔细考虑了。

linux内存管理之非连续物理地址分配(vmalloc) 2008-02-15 16:15:17

分类: LINUX

------------------------------------------

本文系本站原创,欢迎转载!

转载请注明出处:http://ericxiao.cublog.cn/

------------------------------------------

前面我们已经分析了linux如何利用伙伴系统,slab分配器分配内存,用这些方法得到的内存在物理地址上都是连续的,然而,有些时候,每次请求内存时,系统都分配物理地址连续的内存块是不合适的,可以利用小块内存“连接”成大块可使用的内存.这在操作系统设计中也被称为 “内存拼接”,显然,内存拼接在需要较大内存,而内存访问相比之下不是很频繁的情况下是比较有效的.

在linux内核中用来管理内存拼接的接口是vmalloc/vfree.用vmalloc分配得到的内存在线性地址是平滑的,但是物理地址上是非连续的.

一:准备知识:

Linux用vm_struct结构来表示vmalloc使用的线性地址.vmalloc所使用的线性地址区间为: VMALLOC_START VMALLOC_END.借用<>中的一副插图,如下示:

从上图中我们可以看到每一个vmalloc_area用4KB隔开,这样做是为了很容易就能捕捉到越界访问,因为中间是一个 “空洞”.

二:相关的数据结构

下面来分析一下vmalloc area的数据结构:

struct vm_struct {

void          *addr;             //虚拟地址

unsigned long      size;         //vm的大小

unsigned long      flags;        //vm的标志

struct page        **pages;      //vm所映射的page

unsigned int       nr_pages;     //page个数

unsigned long      phys_addr;    //对应的起始物理地址

struct vm_struct   *next;        //下一个vm.用来形成链表

}

全局变量vmlist用来管理vm构成的链表

全局变量vmlist用于访问vmlist所使用的信号量

对于vm_struct有两个常用的操作: get_vm_area/remove_vm_area

get_vm_area:用来分配一个合适大小的vm结构,分配成功之后,将其链入到vmlist中,代码在 mm/vmalloc.c中.如下示:

//size为vm的大小

struct vm_struct *get_vm_area(unsigned long size, unsigned long flags)

{

//在VMALLOC_START与VMALLOC_END找到一段合适的空间

return __get_vm_area(size, flags, VMALLOC_START, VMALLOC_END);

}

//参数说明:

//start:起始地址 end:结束地址 size 空间大小

struct vm_struct *__get_vm_area(unsigned long size, unsigned long flags,

unsigned long start, unsigned long end)

{

struct vm_struct **p, *tmp, *area;

unsigned long align = 1;

unsigned long addr;

//如果指定了VM_IOREMAP.则调整对齐因子

if (flags & VM_IOREMAP) {

int bit = fls(size);

if (bit > IOREMAP_MAX_ORDER)

bit = IOREMAP_MAX_ORDER;

else if (bit < PAGE_SHIFT)

bit = PAGE_SHIFT;

align = 1ul << bit;

}

//将起始地址按照对齐因子对齐

addr = ALIGN(start, align);

//分配一个vm_struct结构空间

area = kmalloc(sizeof(*area), GFP_KERNEL);

if (unlikely(!area))

return NULL;

//PAGE_SIZE:在i32中为4KB,即上面所说的间隔空洞

size += PAGE_SIZE;

if (unlikely(!size)) {

kfree (area);

return NULL;

}

write_lock(&vmlist_lock);

//遍历vmlist:找到合适大小的末使用空间

for (p = &vmlist; (tmp = *p) != NULL ;p = &tmp->next) {

//若起始地址落在某一个vm区间,则调整起始地址为vm区间的末尾

if ((unsigned long)tmp->addr < addr) {

if((unsigned long)tmp->addr + tmp->size >= addr)

addr = ALIGN(tmp->size +

(unsigned long)tmp->addr, align);

continue;

}

//size+addr < addr ?除非size == 0

if ((size + addr) < addr)

goto out;

//中间的空隙可以容纳下size大小的vm.说明已经找到了这样的一个vm

if (size + addr <= (unsigned long)tmp->addr)

goto found;

//调整起始地址为vm的结束地址

addr = ALIGN(tmp->size + (unsigned long)tmp->addr, align);

//如果超出了范围

if (addr > end - size)

goto out;

}

found:

//找到了合适大小的空间,将area->addr赋值为addr,然后链入vmlist中

area->next = *p;

*p = area;

area->flags = flags;

area->addr = (void *)addr;

area->size = size;

area->pages = NULL;

area->nr_pages = 0;

area->phys_addr = 0;

write_unlock(&vmlist_lock);

return area;

out:

//没有找到合适大小的空间,出错返回

write_unlock(&vmlist_lock);

kfree(area);

if (printk_ratelimit())

printk(KERN_WARNING "allocation failed: out of vmalloc space - use vmalloc= to increase size.\n");

return NULL;

}

这段代码不是很复杂,在此不详细分析了.

remove_vm_area用来将相应的vm从vmlist中断开,使其表示的空间可以被利用

//addr:对应vm的超始地址

struct vm_struct *remove_vm_area(void *addr)

{

struct vm_struct **p, *tmp;

write_lock(&vmlist_lock);

//遍历vmlist.找到超始地址为addr的vm

for (p = &vmlist ; (tmp = *p) != NULL ;p = &tmp->next) {

if (tmp->addr == addr)

goto found;

}

write_unlock(&vmlist_lock);

return NULL;

found:

//断开tmp所对应的映射关系

unmap_vm_area(tmp);

//找到了这个vm,将其从vmlist上断开

*p = tmp->next;

write_unlock(&vmlist_lock);

return tmp;

}

unmap_vm_area用来断开vm所在线性地址所对应的映射关系.它的代码如下:

void unmap_vm_area(struct vm_struct *area)

{

//vm所对应的起始线性地址

unsigned long address = (unsigned long) area->addr;

//vm所对应的结束线性地址

unsigned long end = (address + area->size);

pgd_t *dir;

//起始地址所在的内核页目录项

dir = pgd_offset_k(address);

flush_cache_vunmap(address, end);

do {

//断开地址所对应的pmd映射

unmap_area_pmd(dir, address, end - address);

//运行到这里的时候,已经断开了一个页目录所表示的线性地址,而每个页目录表示的线性地址//大小为PGDIR_SIZE

address = (address + PGDIR_SIZE) & PGDIR_MASK;

dir++;

} while (address && (address < end));

//当到达末尾时结束循环

flush_tlb_kernel_range((unsigned long) area->addr, end);

}

//断开线性地址区间所在的pmd的映射

static void unmap_area_pmd(pgd_t *dir, unsigned long address,

unsigned long size)

{

unsigned long end;

pmd_t *pmd;

if (pgd_none(*dir))

return;

if (pgd_bad(*dir)) {

pgd_ERROR(*dir);

pgd_clear(dir);

return;

}

pmd = pmd_offset(dir, address);

address &= ~PGDIR_MASK;

end = address + size;

if (end > PGDIR_SIZE)

end = PGDIR_SIZE;

do {

//断开线性地址所在的pte的映射关系

unmap_area_pte(pmd, address, end - address);

address = (address + PMD_SIZE) & PMD_MASK;

pmd++;

} while (address < end);

}

static void unmap_area_pte(pmd_t *pmd, unsigned long address,

unsigned long size)

{

unsigned long end;

pte_t *pte;

if (pmd_none(*pmd))

return;

if (pmd_bad(*pmd)) {

pmd_ERROR(*pmd);

pmd_clear(pmd);

return;

}

pte = pte_offset_kernel(pmd, address);

address &= ~PMD_MASK;

end = address + size;

if (end > PMD_SIZE)

end = PMD_SIZE;

do {

pte_t page;

//清除pte的对应映射关系

page = ptep_get_and_clear(pte);

address += PAGE_SIZE;

pte++;

if (pte_none(page))

continue;

if (pte_present(page))

continue;

printk(KERN_CRIT "Whee.. Swapped out page in kernel page table\n");

} while (address < end);

}

经过这几个过程之后,实际上,它只是找到线性地址所对应的pte,然后断开pte的映射.值得注意的是:为了效率起见,这里只是断开了pte的映射,即只是将pte置为none,表示pte末映射内存.并末断开pmd和pgd的映射

linux内存管理之非连续物理地址分配(vmalloc)(续) 2008-02-15 16:17:27

分类: LINUX

三:vmalloc的实现:

void *vmalloc(unsigned long size)

{

return __vmalloc(size, GFP_KERNEL | __GFP_HIGHMEM, PAGE_KERNEL);

}

实际上调用__vmalloc:

void *__vmalloc(unsigned long size, int gfp_mask, pgprot_t prot)

{

struct vm_struct *area;

struct page **pages;

unsigned int nr_pages, array_size, i;

//使请求的大小与页框对齐

size = PAGE_ALIGN(size);

//有效性检查

if (!size || (size >> PAGE_SHIFT) > num_physpages)

return NULL;

//取得一个有效的VM,这个函数我们在前面已经详细的分析过了

area = get_vm_area(size, VM_ALLOC);

if (!area)

return NULL;

//所要映射的页面总数

nr_pages = size >> PAGE_SHIFT;

//页面描述符所占的空间

array_size = (nr_pages * sizeof(struct page *));

area->nr_pages = nr_pages;

area->pages = pages = kmalloc(array_size, (gfp_mask & ~__GFP_HIGHMEM));

//如果空间分配失败

if (!area->pages) {

remove_vm_area(area->addr);

kfree(area);

return NULL;

}

memset(area->pages, 0, array_size);

//为每一个页面分配空间

for (i = 0; i < area->nr_pages; i++) {

area->pages[i] = alloc_page(gfp_mask);

if (unlikely(!area->pages[i])) {

/* Successfully allocated i pages, free them in __vunmap() */

area->nr_pages = i;

goto fail;

}

}

//为所分配的页面建立映射关系

if (map_vm_area(area, prot, &pages))

goto fail;

return area->addr;

fail:

vfree(area->addr);

return NULL;

}

map_vm_area为所分配的内存建立映射关系,它的程序流程与unmap_vm_area差不多,都是从pgd找到pte,如果同样的映射关系不存在,则新建之.(如:pgd对应的pmd不存在,则新建pmd项,使pgd指向建好的pmd.同理,如果pmd所映射的pte项不存在,则新建pte,然后建立映射),然后将pte映射到相应的页表.代码如下:

int map_vm_area(struct vm_struct *area, pgprot_t prot, struct page ***pages)

{

unsigned long address = (unsigned long) area->addr;

unsigned long end = address + (area->size-PAGE_SIZE);

pgd_t *dir;

int err = 0;

//vm 起始地址所在的页目录

dir = pgd_offset_k(address);

spin_lock(&init_mm.page_table_lock);

do {

pmd_t *pmd = pmd_alloc(&init_mm, dir, address);

if (!pmd) {

err = -ENOMEM;

break;

}

//轮到pmd了 ^_^

if (map_area_pmd(pmd, address, end - address, prot, pages)) {

err = -ENOMEM;

break;

}

address = (address + PGDIR_SIZE) & PGDIR_MASK;

dir++;

} while (address && (address < end));

spin_unlock(&init_mm.page_table_lock);

flush_cache_vmap((unsigned long) area->addr, end);

return err;

}

static int map_area_pmd(pmd_t *pmd, unsigned long address,

unsigned long size, pgprot_t prot,

struct page ***pages)

{

unsigned long base, end;

base = address & PGDIR_MASK;

address &= ~PGDIR_MASK;

end = address + size;

if (end > PGDIR_SIZE)

end = PGDIR_SIZE;

do {

pte_t * pte = pte_alloc_kernel(&init_mm, pmd, base + address);

if (!pte)

return -ENOMEM;

//轮到pte了 ^_^

if (map_area_pte(pte, address, end - address, prot, pages))

return -ENOMEM;

address = (address + PMD_SIZE) & PMD_MASK;

pmd++;

} while (address < end);

return 0;

}

//为页表页建立映射关系

static int map_area_pte(pte_t *pte, unsigned long address,

unsigned long size, pgprot_t prot,

struct page ***pages)

{

unsigned long end;

address &= ~PMD_MASK;

end = address + size;

if (end > PMD_SIZE)

end = PMD_SIZE;

do {

struct page *page = **pages;

WARN_ON(!pte_none(*pte));

if (!page)

return -ENOMEM;

//具体的映射在这里了 ^_^

set_pte(pte, mk_pte(page, prot));

address += PAGE_SIZE;

pte++;

(*pages)++;

} while (address < end);

return 0;

}

只要理解了断开映射的过程,这段代码是很好理解的.

总而言之:linux在建立映射的时候,从pgd 到pte相应的建立映射关系,最后将pte映射到分配得到的物理内存.而在断开映射的时候,linux内核从pgd找到pte,然后将pte置为none,表示pte末建立映射关系.

四:vfree的实现:

代码如下:

void vfree(void *addr)

{

BUG_ON(in_interrupt());

__vunmap(addr, 1);

}

跟踪至__vunmap:

void __vunmap(void *addr, int deallocate_pages)

{

struct vm_struct *area;

//参数有效性检查

if (!addr)

return;

//判断addr是否是按页框对齐的

if ((PAGE_SIZE-1) & (unsigned long)addr) {

printk(KERN_ERR "Trying to vfree() bad address (%p)\n", addr);

WARN_ON(1);

return;

}

//remove_vm_area:这个函数我们在之前已经分析过了 ^_^

area = remove_vm_area(addr);

if (unlikely(!area)) {

//没有找到起始地址为addr的vm.则无效,退出

printk(KERN_ERR "Trying to vfree() nonexistent vm area (%p)\n",

addr);

WARN_ON(1);

return;

}

if (deallocate_pages) {

int i;

for (i = 0; i < area->nr_pages; i++) {

if (unlikely(!area->pages[i]))

BUG();

//释放请求获得的页面

__free_page(area->pages[i]);

}

//释放分配的page 描述符

kfree(area->pages);

}

//释放内核的vm 描述符

kfree(area);

return;

}

五:总结

经过上面的分析,我们可以看到,vmalloc分配内存的过程是十分低效的,不仅要从伙伴系统中取内存而且要建立映射关系,显然,用vmalloc分配较小的内存是不合算的。此外。有个问题值得思考一下:为什么用__get_free_page不需要建立映射关系,而vmalloc就需要呢?

其实,不管使用何种方式。线性地址到物理地址的转换最终都要经过硬件的页式管理去完成。所不同的是__get_free_page返回的线性地址是属于(PAGE_OFFSET,HIGH_MEMORY)之间的,这段线性地址在内核初始化的时候就完成了映射。而vmalloc使用的线性地址是属于(VMALLOC_START VMALLOC_END)之间的,也就是说属于一个临时映射区,所以必须为其建立映射关系。

Linux内存管理之高端内存映射相关推荐

  1. linux3.10高端内存,Linux内存管理之高端内存映射

    二:永久内存映射 永久内存映射在内核的接口为:kmap()/kunmap().在详细分析代码之前,有必须弄懂几个全局变量的含义: PKMAP_BASE:永久映射空间的起始地址.永久映射空间为4M.所以 ...

  2. linux高端物理内存,Linux内存管理之高端内存

    看了Linux内核内存管理,参考网上的意见整理了一下. 1.页框管理 Linux采用4KB页框大小作为标准的内存分配单元.内核必须记录每个页框的状态,这种状态信息保存在一个类型为page的页描述符中, ...

  3. Linux内存管理-高端内存(一)

    高端内存是指物理地址大于 896M 的内存.对于这样的内存,无法在"内核直接映射空间"进行映射. 为什么? 因为"内核直接映射空间"最多只能从 3G 到 4G, ...

  4. Linux内存管理:内存描述之高端内存

    <Linux内存管理:内存描述之内存节点node> <Linux内存管理:内存描述之内存区域zone> <Linux内存管理:内存描述之内存页面page> < ...

  5. 深入理解linux操作系统中的高端内存

    Linux内核地址映射模型 x86 CPU采用了段页式地址映射模型.进程代码中的地址为逻辑地址,经过段页式地址映射后,才真正访问物理内存. 段页式机制如下图.   Linux内核地址空间划分 通常32 ...

  6. 高端内存映射之kmap持久内核映射--Linux内存管理(二十)

    日期 内核版本 架构 作者 GitHub CSDN 2016-09-29 Linux-4.7 X86 & arm gatieme LinuxDeviceDrivers Linux内存管理 在内 ...

  7. linux 物理内存用完了_Linux用户空间与内核空间(理解高端内存)

    Linux内核地址映射模型 x86 CPU采用了段页式地址映射模型.进程代码中的地址为逻辑地址,经过段页式地址映射后,才真正访问物理内存. 段页式机制如下图. Linux内核地址空间划分 通常32位L ...

  8. Linux内核高端内存

    Linux内核地址映射模型 x86 CPU采用了段页式地址映射模型.进程代码中的地址为逻辑地址,经过段页式地址映射后,才真正访问物理内存. 段页式机制如下图.   Linux内核地址空间划分 通常32 ...

  9. Linux用户空间与内核空间(理解高端内存)

    目录 Linux内核地址映射模型 Linux内核地址空间划分 Linux内核高端内存的由来 Linux内核高端内存的理解 Linux内核高端内存的划分 常见问题 小结 1.虚拟内核空间到物理空间的映射 ...

最新文章

  1. CVPR一区审稿人分享:图像分割论文通关攻略
  2. java pdfreader去除水印_(最新)JAVA使用Icepdf 5.0.6 pro的PDF转图片去掉水印的方法...
  3. 今日代码(200624)--缺失值处理
  4. matlab中“存储空间不足,无法处理此命令”
  5. gPodder 3.4 发布,播客接收器
  6. AI赋能案例—阿里云身份证OCR识别助力实现“无接触”式政务服务!
  7. 微软Skype即将抛弃Windows Phone 8和8.1用户
  8. 《Cisco防火墙》一8.7 通过NAT规则定义连接限制
  9. python小程序100题-Python 练习册,每天一个小程序 -- 0000题
  10. 基金投资顾问制度即将启动,巨头入局
  11. ASCII码表_全_完整版
  12. java 自己实现工作流_Java基于jeeplus vue实现简单工作流过程图解
  13. 基于OMAPL138/C6748 + SPARTAN-6 77GHz汽车防撞雷达信号处理平台设计
  14. 世界第4疯狂的科学家,在103岁生日那天去世了
  15. android 自动旋转开关,教你华为mate30如何彻底关闭自动旋转
  16. epub阅读器 html,打造web版epub阅读器(书架设计)
  17. 简单python教程视频_学习Python其实超简单:只需要看这套视频,即可轻松从入门到精通...
  18. java 教学大纲_Java程序设计课程教学大纲
  19. 最爽摸鱼听音乐——使用VS Code解锁网易云灰色歌曲(VSC Netease Music+UnblockNeteaseMusic)
  20. linux 内核启动参数

热门文章

  1. BZOJ 1927 星际竞速
  2. 多进程的一些注意事项
  3. (1)java虚拟机概念和结构图
  4. 常见的浏览器兼容问题
  5. Ubuntu 9.10下载地址
  6. python中的赋值和深浅拷贝
  7. 4.10/4.11/4.12 lvm讲解 4.13 磁盘故障小案例
  8. window下安装Memcache
  9. linux 查看剩余内存
  10. APDU命令的结构和处理【转】