百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

vmalloc 原理剖析 virtualmalloc

haoteby 2024-12-18 14:13 7 浏览

在32位 linux 系统中,每个进程都有 4G 的虚拟地址空间,在这 4G 的虚拟地址空间中又分为用户内存空间(0~3G)和内核内存空间(3~4G)。

由于虚拟的内核内存空间只有 1G,因此从寻址上来讲,内核最多可以寻址 1G 的物理内存空间。但是现在的操作系统内存内存空间远远不止 1G,所以为了让内核能够选址所有的物理内存空间,操作系统又对 1G 的虚拟内核内存空间进行了又一步划分。

直接内存映射区范围为3GB ( PAGE_OFFSET ) ~ 3GB+896 MB(high_memory),直接内存映射区的特点就是物理地址与虚拟地址之间存在一个3G的固定的偏移量,也即是物理地址 = 虚拟地址 - 3GB。

其中 kmalloc 和 __get_free_pages 使用的虚拟地址范围与物理内存是一一对应的,也即是一个 PAGE_OFFSET 的偏移量。也就是说这 2 个函数申请的内存地址空间就是在直接内存映射区域,其区域为PAGE_OFFSET ~ high_memory 之间。因此他们的虚拟地址和物理地址都是连续的。正是由于他们的地址有个固定的偏移量,所以这两个函数不需要为该地址段修改页表,访问速度也是比较快的。

而 vmalloc 使用的虚拟地址空间范围在 VMALLOC_START ~VMALLOC_END 区间。每次使用vmalloc 申请一块内存时,都会从该区域中寻找一块未被使用的虚拟地址段,然后根据分配的虚拟地址来修改页表,完成虚拟地址到物理地址的映射。由于 vmalloc 最终要修改页表,因此从效率上来讲,没有 kmalloc 高,但是其可以申请一大块的物理内存,不过其物理地址空间不保证是连续的。

一般情况下,只有硬件设备才需要物理地址连续的内存,因为硬件设备往往存在于 MMU 之外,根本不了解虚拟地址;但为了性能上的考虑,内核中一般使用 kmalloc(),而只有在需要获得大块内存时才使用 vmalloc(),例如当模块被动态加载到内核当中时,就把模块装载到由 vmalloc() 分配 的内存上。

接下来分析下 vmalloc 实现原理。

vmalloc
|-> __vmalloc
|-> __vmalloc_node

vmalloc 最终调用 __vmalloc_node。

static void *__vmalloc_node(unsigned long size, gfp_t gfp_mask, pgprot_t prot,
int node)
{
struct vm_struct *area;
...

//寻找一块空闲虚拟内存区域,然后申请 vm_struct 结构用于记录使用的虚拟地址空间段以及使用使用的物理页
area = get_vm_area_node(size, VM_ALLOC, node, gfp_mask);

//为vm区分配非连续的内存区,以页为单位,同时修改页表完成虚拟地址到物理地址之间的映射
return __vmalloc_area_node(area, gfp_mask, prot, node);
}

其中 get_vm_area_node 最终会调用 __get_vm_area_node

static struct vm_struct *__get_vm_area_node(unsigned long size, unsigned long flags,
unsigned long start, unsigned long end,
int node, gfp_t gfp_mask)
{
struct vm_struct **p, *tmp, *area;
unsigned long align = 1;
unsigned long addr;

...

// 申请一个新的vm
area = kmalloc_node(sizeof(*area), gfp_mask & GFP_LEVEL_MASK, node);

/*
* We always allocate a guard page.
*/
//size要多算一个4k用于分隔
size += PAGE_SIZE;

write_lock(&vmlist_lock);
for (p = &vmlist; (tmp = *p) != NULL ;p = &tmp->next) {
//寻找addr小于tmp->addr,作为新的vm的下个vm,否则就调整
if ((unsigned long)tmp->addr < addr) {
if((unsigned long)tmp->addr + tmp->size >= addr)
//addr 落在了tmp->addr 范围之内,进行addr为tmp->addr的末尾
addr = ALIGN(tmp->size + 
(unsigned long)tmp->addr, align);
continue;
}
if ((size + addr) < addr)
goto out;
//找到了新的vm区间,tmp作为新的vm的后继
if (size + addr <= (unsigned long)tmp->addr)
goto found;
addr = ALIGN(tmp->size + (unsigned long)tmp->addr, align);
//超出范围
if (addr > end - size)
goto out;
}

found:
area->next = *p;
*p = area; //插入链表

area->flags = flags;
area->addr = (void *)addr;
area->size = size;
area->pages = NULL;
area->nr_pages = 0;
area->phys_addr = 0;
write_unlock(&vmlist_lock);

return area;

out:
write_unlock(&vmlist_lock);
kfree(area);
if (printk_ratelimit())
printk(KERN_WARNING "allocation failed: out of vmalloc space - use vmalloc=<size> to increase size.\n");
return NULL;
}

以上完成 vm_struct 的创建及初始化,接下来申请物理页。

在 vm_struct 中记录着虚拟地址,以及物理内存的页框信息。

struct vm_struct {
/* keep next,addr,size together to speedup lookups */
struct vm_struct *next; //指向下一个结构指针
void *addr; //内存区虚拟地址的起始地址
unsigned long size;//内存区大小加4k(内存区之间的安全区大小)
unsigned long flags; //非连续内存区映射的内存的类型
struct page **pages; //指向nr_pages数组的指针,该数组由指向页描述符的指针组成
unsigned int nr_pages;//内存区填充的页的个数
unsigned long phys_addr;//该字段设置为0,除非内存已被创建来映射一个硬件设备的I/O共享内存
};

VMALLOC_START ~VMALLOC_END 区间申请的虚拟地址段,都是通过一个个 vm_struct 链表进行记录,所以每次通过 vmalloc 申请内存时,都会遍历 vm_struct 链表来进行查找未被使用的虚拟地址空间。

__vmalloc_area_node 用来分配物理内存,该内存区不保证连续性。

//为vm区分配非连续的内存区,以页为单位
void *__vmalloc_area_node(struct vm_struct *area, gfp_t gfp_mask,
pgprot_t prot, int node)
{
struct page **pages;
unsigned int nr_pages, array_size, i;

//计算内存区占用的页面数
nr_pages = (area->size - PAGE_SIZE) >> PAGE_SHIFT;
array_size = (nr_pages * sizeof(struct page *));

area->nr_pages = nr_pages;
/* Please note that the recursion is strictly bounded. */
//若数组超过一页,则专门为这个数组占用的空间分配一个vm区
if (array_size > PAGE_SIZE) {
pages = __vmalloc_node(array_size, gfp_mask, PAGE_KERNEL, node);
area->flags |= VM_VPAGES;
} else {
pages = kmalloc_node(array_size,(gfp_mask & ~(__GFP_HIGHMEM | __GFP_ZERO)),node);
}
area->pages = pages;
//没有分配到内存,移除vm
if (!area->pages) {
...
}
memset(area->pages, 0, array_size);

/*为vm区占用的页分配页面(非连续,以页为单位分配),一共占用了nr_pages 个页*/
for (i = 0; i < area->nr_pages; i++) {
if (node < 0)
area->pages[i] = alloc_page(gfp_mask);
else
area->pages[i] = alloc_pages_node(node, gfp_mask, 0);
if (unlikely(!area->pages[i])) {
/* Successfully allocated i pages, free them in __vunmap() */
area->nr_pages = i;
goto fail;
}
}
//建立线性地址到物理地址之间的映射
if (map_vm_area(area, prot, &pages))
goto fail;
return area->addr;

fail:
vfree(area->addr);
return NULL;
}

该函数为 vm 区分配页面,该页面已数组的形式保存于 vm_struct 中进行记录,同时把修改页表,完成虚拟地址到物理地址之间的映射。



从上面可知,vmalloc 申请内存时,同时也修改页表,通过vmalloc获得的页必须一个个地进行映射,因为它们物理上是不连续的,这就会导致比直接内存映射大得多的 TLB 抖动。

而在用户态进程调用 malloc 时并未修改页表,而是在用户进程访问时通过缺页异常中断后再分配相应的物理内存。

通过上述分析总结 vmalloc 流程如下:

1、在 VMALLOC_START ~VMALLOC_END 区间寻找一块未被使用的虚拟地址空间段,然后使用 vm_struct 进行记录。

2、申请所需要的物理页,这些物理页记录在 vm_struct 中。

3、对申请的每个物理页,在页表中完成虚拟地址到物理地址的映射,同时刷新页表缓存。

相关推荐

单点登录(SSO)解决方案介绍(单点登录概念)

一、单点登录的介绍单点登录(SingleSignOn),简称为SSO,是目前比较流行的企业业务整合的解决方案之一。SSO的定义是在多个应用系统中,用户只需要登录一次就可以访问所有相互信任的应用系...

系统登录的三种方式,哪一种更安全?

登录是一个高频的动作,笔者抓住这一个小点,分析了系统登录的几种方式和对应的场景。今天谈谈登录。登录即用户输入用户名和密码登录进系统中。B端系统,对于登录的业务场景有两种(可能不止,目前遇到过这两种):...

到底什么是单点登录(SSO)?(什么叫做单点登录)

什么是单点登录?单点登录(SingleSign-On,简称SSO)是一种集中式的身份验证和授权机制,用户只需在一处输入一次凭证(例如用户名和密码)就可以访问多个相关但独立的软件系统。在数字化时代,...

5年稳如老狗的单点登录系统,到底是怎么搞出来的?

说到单点登录(SingleSign-On,简称SSO),大家的第一反应可能是——啊不就是登录一次,能到处串门儿嘛?别说,还真差不多,就是这么个意思。但真要搭一套好用、耐造、还能扛住公司里各种奇奇怪...

这些负载均衡都解决哪些问题?服务、网关、NGINX?

在微服务项目中,有服务的负载均衡、网关的负载均衡、Nginx的负载均衡,这几个负载均衡分别用来解决什么问题呢?一、服务的负载均衡先抛出一个问题:...

Nginx负载均衡最全详解(4大算法原理机制)

Nginx在大型网站架构很重要,也是大厂重点考察方向,今天我就重点来详解Nginx负载均衡@mikechen本篇已收于mikechen原创超30万字《阿里架构师进阶专题合集》里面。Nginx负载均衡N...

负载均衡 Nginx Session 一致性(nginx 负载均衡 会话保持)

HTTPS请求跳转...

监控Oracle Cloud负载均衡器:Applications Manager释放最佳性能

设想你正在运营一个受欢迎的在线学习平台,在考试前的高峰期,平台流量激增。全球的学生同时登录,观看视频、提交作业和参加测试。如果OracleCloud负载均衡器不能高效地分配流量,或者后端服务器难...

Nginx负载均衡:nginx.conf配置文件说明!

大家好,欢迎来到程序视点!我是你们的老朋友.小二!在此记录下Nginx服务器nginx.conf负载均衡的配置文件说明,部分注释收集与网络.关于nginx.conf基本的配置,请查看上一篇文章!Ng...

Java高可用系统架构中的负载均衡策略

Java高可用系统架构中的负载均衡策略在现代的分布式系统中,负载均衡策略是构建高可用系统的基石。Java开发者需要深刻理解这些策略,以便打造稳定且高效的系统。接下来,让我们一起揭开负载均衡的神秘面纱。...

深入对比Nginx、LVS和HAProxy,选择最合适负载均衡方案!

关注...

Spring Boot3 客户端负载均衡全解析:从原理到实战

在当今互联网大厂后端技术开发的激烈竞争环境中,构建高效、稳定的微服务架构是核心诉求。其中,SpringBoot3作为热门开发框架,其客户端负载均衡功能对于提升系统性能、保障服务稳定性起着关键作用。...

MySql高可用集群MySQL Router负载均衡读写分离

名词解释MGR:MysqlGroupReplication组复制,多台MySQL服务器在同一组中会自动保持同步状态,当某台服务器故障时,整个复制组依然可以保持正常并对外提供服务。...

性能测试之tomcat+nginx负载均衡(nginx tomcat)

nginxtomcat配置准备工作:两个tomcat执行命令cp-rapache-tomcat-8.5.56apache-tomcat-8.5.56_2修改被复制的tomcat2下con...

win10/11双网卡链路聚合叠加负载均衡提升网速解决网卡网速瓶颈!

双网卡链路聚合一种网络配置技术,通过将多个物理网卡绑定在一起,形成一个逻辑上的网络接口,以提高网络的可靠性、可用性和性能。这种技术通常用于服务器和网络设备中,以实现负载均衡、冗余和高可用性。本机环境:...