内存块
简介
内存管理是操作系统内核中最复杂的部分之一(我认为没有之一)。在讲解内核进入点之前的准备工作时,我们在调用 start_kernel
函数前停止了讲解。start_kernel
函数在内核启动第一个 init
进程前初始化了所有的内核特性(包括那些依赖于架构的特性)。你也许还记得在引导时建立了初期页表、识别页表和固定映射页表,但是复杂的内存管理部分还没有开始工作。当 start_kernel
函数被调用时,我们会看到从初期内存管理到更复杂的内存管理数据结构和技术的转变。为了更好地理解内核的初始化过程,我们需要对这些技术有更清晰的理解。本章节是内存管理框架和 API 的不同部分的概述,从 memblock
开始。
内存块
内存块是在引导初期,泛用内核内存分配器还没有开始工作时对内存区域进行管理的方法之一。以前它被称为 逻辑内存块
,但是内核接纳了 Yinghai Lu 提供的补丁后改名为 memblock
。x86_64
架构上的内核会使用这个方法。我们已经在讲解内核进入点之前的准备工作时遇到过了它。现在是时候对它更加熟悉了。我们会看到它是被怎样实现的。
我们首先会学习 memblock
的数据结构。以下所有的数据结构都在 include/linux/memblock.h 头文件中定义。
第一个结构体的名字就叫做 memblock
。它的定义如下:
这个结构体包含五个域。第一个 bottom_up
域置为 true
时允许内存以自底向上模式进行分配。下一个域是 current_limit
,这个域描述了内存块的尺寸限制。接下来的三个域描述了内存块的类型。内存块的类型可以是:可用的、被保留的和物理内存(如果 CONFIG_HAVE_MEMBLOCK_PHYS_MAP
编译配置选项被开启)。接下来我们来看看下一个数据结构 - memblock_type
。让我们来看看它的定义:
这个结构体提供了关于内存类型的信息。它包含了描述当前内存块中内存区域的数量、所有内存区域的大小、内存区域的已分配数组的尺寸和指向 memblock_region
结构体数据的指针的域。memblock_region
结构体描述了一个内存区域,定义如下:
memblock_region
提供了内存区域的基址和大小,flags
域可以是:
同时,如果 CONFIG_HAVE_MEMBLOCK_NODE_MAP
编译配置选项被开启, memblock_region
结构体也包含节点ID - numa 节点选择器。
我们将以上部分想象为如下示意图:
这三个结构体: memblock
, memblock_type
和 memblock_region
是 Memblock
的主要组成部分。现在我们可以进一步了解 Memblock
和 它的初始化过程了。
内存块初始化
所有 memblock
的 API 都在 include/linux/memblock.h 头文件中描述, 所有函数的实现都在 mm/memblock.c 源码中。首先我们来看一下源码的开头部分和 memblock
结构体的初始化吧。
在这里我们可以看到 memblock
结构体的同名变量的初始化。首先请注意 __initdata_memblock
。这个宏的定义就像这样:
你会发现这个宏依赖于 CONFIG_ARCH_DISCARD_MEMBLOCK
。如果这个编译配置选项开启,内存块的代码会被放置在 .init
段,这样它就会在内核引导完毕后被释放掉。
接下来我们可以看看 memblock_type memory
, memblock_type reserved
和 memblock_type physmem
域的初始化。在这里我们只对 memblock_type.regions
的初始化过程感兴趣,请注意每一个 memblock_type
域都是 memblock_region
的数组初始化的:
每个数组包含了 128 个内存区域。我们可以在 INIT_MEMBLOCK_REGIONS
宏定义中看到它:
请注意所有的数组定义中也用到了在 memblock
中使用过的 __initdata_memblock
宏(如果忘掉了就翻到上面重温一下)。
最后两个域描述了 bottom_up
分配是否被开启以及当前内存块的限制:
这个限制是 0xffffffffffffffff
.
On this step the initialization of the memblock
structure has been finished and we can look on the Memblock API. 到此为止 memblock
结构体的初始化就结束了,我们可以开始看内存块相关 API 了。
内存块应用程序接口
我们已经结束了 memblock
结构体的初始化讲解,现在我们要开始看内存块 API 和它的实现了。就像我上面说过的,所有 memblock
的实现都在 mm/memblock.c 中。为了理解 memblock
是怎样被实现和工作的,让我们先看看它的用法。内核中有很多地方用到了内存块。举个例子,我们来看看 arch/x86/kernel/e820.c 中的 memblock_x86_fill
函数。这个函数使用了 e820 提供的内存映射并使用 memblock_add
函数在 memblock
中添加了内核保留的内存区域。既然我们首先遇到了 memblock_add
函数,让我们从它开始讲解吧。
这个函数获取了物理基址和内存区域的大小并把它们加到了 memblock
中。memblock_add
函数本身没有做任何特殊的事情,它只是调用了函数
。我们将内存块类型 - memory
,内存基址和内存区域大小,MAX_NUMNODES
和标志传进去。如果 CONFIG_NODES_SHIFT
没有被设置,MAX_NUMNODES
就是 1,否则是 1 << CONFIG_NODES_SHIFT
。memblock_add_range
函数将新的内存区域加到了内存块中,它首先检查传入内存区域的大小,如果是 0 就直接返回。然后,这个函数会用 memblock_type
来检查 memblock
中的内存区域是否存在。如果不存在,我们就简单地用给定的值填充一个新的 memory_region
然后返回(我们已经在对内核内存管理框架的初览中看到了它的实现)。如果 memblock_type
不为空,我们就会使用提供的 memblock_type
将新的内存区域加到 memblock
中。
首先,我们获取了内存区域的结束点:
memblock_cap_size
调整了 size
使 base + size
不会溢出。它的实现非常简单:
memblock_cap_size
返回了提供的值与 ULLONG_MAX - base
中的较小值作为新的尺寸。
之后,我们获得了新的内存区域的结束地址,memblock_add_range
会检查与已加入内存区域是否重叠以及能否合并。将新的内存区域插入 memblock
包含两步:
将新内存区域的不重叠部分作为单独的区域加入;
合并所有相接的区域。
我们会迭代所有的已存储内存区域来检查是否与新区域重叠:
如果新的内存区域不与已有区域重叠,直接插入。否则我们会检查这个新内存区域是否合适并调用 memblock_double_array
函数:
memblock_double_array
会将提供的区域数组长度加倍。然后我们会将 insert
置为 true
,接着跳转到 repeat
标签。第二步,我们会从 repeat
标签开始,迭代同样的循环然后使用 memblock_insert_region
函数将当前内存区域插入内存块:
我们在第一步将 insert
置为 true
,现在 memblock_insert_region
会检查这个标志。memblock_insert_region
的实现与我们将新区域插入空 memblock_type
的实现(看上面)几乎相同。这个函数会获取最后一个内存区域:
然后用 memmove
拷贝这部分内存:
之后我们会填充 memblock_region
域,然后增长 memblock_type
的尺寸。在函数执行的结束,memblock_add_range
会调用 memblock_merge_regions
来在第二步合并相邻可合并的内存区域。
还有第二种情况,新的内存区域与已储存区域完全重叠。比如 memblock
中已经有了 region1
:
现在我们想在 memblock
中添加 region2
,它的基址和尺寸如下:
在这种情况下,新内存区域的基址会被像下面这样设置:
所以在我们设置的这种场景中,它会被设置为 0x1000
。然后我们会在第二步中将这个区域插入:
在这种情况下我们会插入 overlapping portion
(我们之插入地址高的部分,因为低地址部分已经被包含在重叠区域里了),然后会使用 memblock_merge_regions
合并剩余部分区域。就像我上文中所说的那样,这个函数会合并相邻的可合并区域。它会从给定的 memblock_type
遍历所有的内存区域,取出两个相邻区域 - type->regions[i]
和 type->regions[i + 1]
,并检查他们是否拥有同样的标志,是否属于同一个节点,第一个区域的末尾地址是否与第二个区域的基地址相同。
如果上面所说的这些条件全部符合,我们就会更新第一个区域的长度,将第二个区域的长度加上去。
我们在更新第一个区域的长度同时,会使用 memmove
将后面的所有区域向前移动一个下标。
然后将 memblock_type
中内存区域的数量减一:
经过这些操作后我们就成功地将两个内存区域合并了:
这就是 memblock_add_range
函数的工作原理和执行过程。
同样还有一个 memblock_reserve
函数与 memblock_add
几乎完成同样的工作,只有一点不同: memblock_reserve
将 memblock_type.reserved
而不是 memblock_type.memory
储存到内存块中。
当然这不是全部的 API。内存块不仅提供了添加 memory
和 reserved
内存区域,还提供了:
memblock_remove - 从内存块中移除内存区域;
memblock_find_in_range - 寻找给定范围内的未使用区域;
memblock_free - 释放内存块中的内存区域;
for_each_mem_range - 迭代遍历内存块区域。
等等......
获取内存区域的相关信息
内存块还提供了获取 memblock
中已分配内存区域信息的 API。包括两部分:
get_allocated_memblock_memory_regions_info - 获取有关内存区域的信息;
get_allocated_memblock_reserved_regions_info - 获取有关保留区域的信息。
这些函数的实现都很简单。以 get_allocated_memblock_reserved_regions_info
为例:
这个函数首先会检查 memblock
是否包含保留内存区域。如果否,就直接返回 0 。否则函数将保留内存区域的物理地址写到传入的数组中,然后返回已分配数组的对齐后尺寸。注意函数使用 PAGE_ALIGN
这个宏实现对齐。实际上这个宏依赖于页的尺寸:
get_allocated_memblock_memory_regions_info
函数的实现是基本一样的。只有一处不同,get_allocated_memblock_memory_regions_info
使用 memblock_type.memory
而不是 memblock_type.reserved
。
内存块的相关除错技术
在内存块的实现中有许多对 memblock_dbg
的调用。如果在内核命令行中传入 memblock=debug
选项,这个函数就会被调用。实际上 memblock_dbg
是 printk
的一个拓展宏:
比如你可以在 memblock_reserve
函数中看到对这个宏的调用:
然后你将看到类似下图的画面:
内存块技术也支持 debugfs 。如果你不是在 X86
架构下运行内核,你可以访问:
/sys/kernel/debug/memblock/memory
/sys/kernel/debug/memblock/reserved
/sys/kernel/debug/memblock/physmem
来获取 memblock
内容的核心转储信息。
结束语
讲解内核内存管理的第一部分到此结束,如果你有任何的问题或者建议,你可以直接发消息给我twitter,也可以给我发邮件或是直接创建一个 issue。
英文不是我的母语。如果你发现我的英文描述有任何问题,请提交一个PR到linux-insides.
相关连接:
最后更新于