Linux从头学03:如何告诉 CPU,代码段、数据段、栈段在内存中什么位置?

本文深入探讨了8086处理器中的段寄存器,包括代码段、数据段和栈段的作用。在Linux2.6中,线性地址区间被简化处理,虚拟地址等同于线性地址。通过一个简单的8086汇编程序示例,展示了如何设置段寄存器和栈顶指针,并解释了段的地址空间和数据存储。文章强调了学习底层硬件机制对于理解现代操作系统的重要性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

原创 道哥 IOT物联网小镇

收录于话题

#Linux 操作系统10

#所有文章71

  • 几个重要的段寄存器

  • Linux 2.6 中的线性地址区间

  • 一个“完整”的 8086 汇编程序

前两篇文章,我们一起学习了 8086 处理器中关于 CPU、内存的基本使用方式,重点对段寄存器和内存的寻址方式进行了介绍。

可能有些小伙伴会对此不屑:现在都是多核的现代处理器,操作系统已经变得非常的强大,为何还去学习这些古董知识?

前几天看到下面这段话,可以来回答这个问题:

“我们都希望学习最新的、使用的东西,但学习的过程是客观的。”

“任何合理的学习过程(尽可能排除走弯路、盲目探索、不成系统)都是一个循序渐进的过程。”

“我们必须先通过一个易于全面把握的事物,来学习和探索一般的规律和方法。”

就拿学习 Linux 操作系统来说,作为一个长期的学习计划,不太可能一上来就阅读最新的 Linux 5.13 版本的代码。

更有可能是先学习 0.11 版本,理解了其中的一些原理、思想之后,再循序渐进的向高版本进行学习、探索。

那么对于 《Linux 从头学》这个系列的文章来说,我是希望自己能够把学习路线再拉长一些,从更底层的硬件机制、驱动原理开始,由简入繁,一步一步最终把 Linux 操作系统这个块硬骨头给啃下来。

那么今天我们就继续 8086 下的学习,来看看一个相对“完整”程序的基本结构。

几个重要的段寄存器

在 x86 系统中,段寻址机制以及相关的寄存器是如此的重要,以至于我忍不住在这里,把几个段寄存器再小结一下。

图片

代码段:用来存放代码,段的基地址放在寄存器 CS 中,指令指针寄存器 IP 用来表示下一条指令在段中的偏移地址;

数据段:用来存放程序处理的数据,段的基地址存放在寄存器 DS 中。对数据段中的某个数据进行操作时,直接在汇编代码中通过立即数或寄存器来指定偏移地址;

栈段:本质上也是用来存放数据,只不过它的操作方式比较特殊而已:通过 PUSH 和 POP 指令来进行操作。段的基地址存放在寄存器 SS 中,栈顶单元的偏移地址存放在寄存器 IP 中。

这里的段,本质上是我们把内存上的某一块连续的存储空间,专门存储某一类的数据。

我们之所以能够这么做,是因为 CPU 通过以上几个寄存器,让我们这样的“安排”称为一种可能。

一句话总结:CPU 将内存中的某个段的内容当做代码,是因为 CS:IP 指向了那里;CPU 将某个段当做栈,是因为 CS:SP 指向了那里。

在之前的一篇文章中,演示了 ELF 格式的可执行文件中,具体包含了哪些段《Linux系统中编译、链接的基石-ELF文件:扒开它的层层外衣,从字节码的粒度来探索》:

虽然这张图中描述的段结构更复杂,但是从本质上来说,它与 8086 中描述的段结构是一样的!

Linux 2.6 中的线性地址区间

在一个现代操作系统中,一个进程中使用的的地址空间,一般称作虚拟地址(也称作逻辑地址)。

虚拟地址首先经过段转换,得到线性地址;然后线性地址再经过分页转换,得到最终的物理地址。

这里再啰嗦一下,很多书籍中队内存地址的称呼比较多,都是根据作者的习惯来称呼。

我是按照上图的方式来理解的:  编译器产生的地址叫做虚拟地址,也叫做逻辑地址,然后经过两级转换,得到最终的物理地址。

在 Linux 2.6 代码中,由于 Linux 把整个 4 GB 的地址空间当做一个“扁平”的结果来处理(段的基地址是 0x0000_0000,偏移地址的最大值是 4GB),因此虚拟地址(逻辑地址)在数值上等于线性地址。

我们再结合上次给出的这张图来理解:

这张图的意思是:在 Linux 2.6 中,用户代码段的开始地址是 0,最大范围是 4 GB;用户数据段的开始地址是 0,最大范围也是 4 GB;内核的数据段和代码段也是如此。

为什么:虚拟地址(逻辑地址)在数值上等于线性地址?

线性地址 = 段基址 + 虚拟地址(偏移量),因为段基址为 0 ,所以线性地址在数值上等于虚拟地址。

Linux 之所以要这样安排,是因为它不想过多的利用 x86 提供的段机制来进行内存地址的管理,而是想充分利用分页机制来进行更加灵活的地址管理。

还有一点需要提醒一下:

在上述描述的文字中,我都会标明一个机制或者策略,它是由 x86 平台提供的,还是由 Linux 操作系统提供的。

对于分页机制也是如此,x86 硬件提供了分页机制,但是 Linux 在 x86 提供的这个分页机制的基础上,进行了扩展,以达到更加灵活的内存地址管理目的。

因此,各位小伙伴在看一些书籍的时候,心中要有一个谱:当前描述内容的上下文环境是什么。

当我们创建一个进程的时候,在内核中就会记录这个进程所拥有的所有线性地址区间。

进程所拥有的所有线性地址区间是一个动态的过程,根据程序的需求随时进行扩展或缩小。例如:把一个文件映射到内存,动态加载/卸载一个动态库等等。

我们知道,内核在操作物理内存的时候,是通过“页框”这个单位来管理的。

一个页框可以包含 1-n 个页,每一页的大小一般是 4 KB,这是对物理内存的管理。

一个线性地址区间可以包含多个物理页。每一个线性地址最终通过多级的页表转换,来最终得到一个物理地址。

注意:上图中,线性地址区间1,映射到物理地址空间中的 N 个 Page,这些 Page 有可能是连续的,也有可能不是连续的。

虽然在物理内存中是不连续的,但是由于被分页转换机制进行了屏蔽,我们在应用程序中都是按照连续的空间来使用的。

一个“完整”的 8086 汇编程序

我们再继续回到 8086 系统中来。

这里描述的地址,经过段地址转换之后,就是一个物理地址,没有经过复杂的页表转换。

这也是我们以 8086 系统作为学习平台的目的:抛开复杂的操作系统,直接探索底层的东西。

在这个最简单的汇编程序中,会使用到 3 个段:代码段,数据段和栈段。

前面已经说到:所谓的段,就是一个地址空间。既然是一个地址空间,必然包含 2 个元素:从什么地方开始,长度是多少。

还是直接上代码:

assume ds:addr1, ss:addr2, cs:addr3

addr1 segment           ; 把数据段安排在这个位置
        db 32 dup (0)   ; 这 32 个字节,是数据段的大小
addr1 end

addr2 segment           ; 把栈段安排在这个位置
        db 32 dup(0)    ; 这 32 个字节,是栈段的大小
addr2 end

addr3 segment           ; 把代码段安排在这个位置
start   
        mov ax, addr1
        mov ds, ax      ; 设置数据段寄存器
        
        mov ax, addr2
        mov ss, ax      ; 设置栈段寄存器
        mov sp, 20h     ; 设置栈顶指针寄存器
        
        ...             ; 其他代码
addr3 ends

end start

以上就是一个汇编代码的基本程序结构,我们给它安排了 3 个段。

3 个标号:addr1addr2 和 addr3,代表了每一个段的开始地址。在代码段的开始部分,把数据段标号 addr1 代表的地址,赋值给 DS 寄存器;把栈段标号 addr2 代表的地址,赋值给 SS 寄存器。

这里的标号,是不是与 C 语言中的 goto 标号很类似?都是表示一个地址。

注意这里赋值给栈顶指针 SP 寄存器的值是 20H

因为栈段的使用是从高地址向低地址方向进行的,所以需要把栈顶指针设置为最大地址单元的下一个地址空间。

假设把第一个数据入栈时(eg: 先执行 mov ax, 1234h,再执行 push ax),CPU 要做的事情是: 先执行 SP = SP - 2,此时 SS:SP 指向 1000:001E,然后再把 1234h 存储到这个地址空间:

另外,代码中最后一句 end start,用来告诉编译器:代码段中 start 标号代表的地址,就是这个程序的入口地址,编译之后这个入口地址信息也会被写入可执行程序中。

当可执行文件被加载到内存中之后,加载程序会找到这个入口地址,然后把 CS:IP 设置为指向这个入口地址,从而开始执行第一条指令。

我们再来对比一下《Linux系统中编译、链接的基石-ELF文件:扒开它的层层外衣,从字节码的粒度来探索》中列出的 ELF 可执行文件中的入口地址,它与上面 8086 下的 start 标号代表的入口地址,在本质上都是一样的道理:

------ End ------

<think>好的,用户想要一个YOLOv8迁移习的代码,并且需要详细的注释。首先,我需要确认用户的使用场景。可能的情况是,用户已经有一定的目标检测任务需求,比如在自己的数据集上进行训练,而希望利用YOLOv8的预训练模型来加速训练过程,提升模型性能。迁移习在这种情况下非常常见,特别是当用户的数据集规模较小时,使用预训练模型可以避免从头训练,节省时间和计算资源。 接下来,我需要考虑用户可能的身份。可能是生、研究人员或者从事计算机视觉相关工作的工程师。他们可能对YOLOv8有一定的了解,但具体实现细节,尤其是迁移习的部分,可能需要指导。因此,代码的注释需要详细,解释每一步的作用,帮助他们理解整个流程。 用户的需求是明确的,但深层需求可能包括如何准备数据集、调整超参数、处理可能的错误等。不过当前问题主要集中在代码和注释上,所以重点应放在提供一个结构清晰、易于理解的示例代码,并确保注释覆盖关键步骤,如环境安装、数据准备、模型加载、训练参数设置等。 我需要确保代码的正确性,比如使用正确的Ultralytics库版本,YOLO类的正确用法,以及数据配置文件的路径格式。同时,注释需要说明迁移习的关键点,比如加载预训练模型、冻结部分层、调整分类头等。可能还需要提醒用户注意数据集的结构是否符合YOLOv8的要求,比如是否有正确的目录结构和标注文件。 另外,用户可能需要了解如何根据自己数据集的特点调整参数,比如epochs、batch size等,以及如何监控训练过程,评估模型性能。因此,在注释中加入这些解释是有必要的。 最后,要确保代码示例简洁,避免不必要的复杂性,让用户能够快速上手。同时,提供后续步骤的建议,比如模型评估和推理,可以帮助用户全面了解迁移习的整个流程。</think>以下是一个基于YOLOv8的迁移习代码示例,包含详细注释说明。建议使用PyTorch环境运行(需要提前安装Ultralytics库): ```python # === 环境准备 === # pip install ultralytics # 如果未安装库需要先执行 from ultralytics import YOLO # === 迁移习训练代码 === def yolo_transfer_learning(): # 初始化模型(使用预训练权重) # 官方提供的预训练模型:yolov8n.pt(小模型)、yolov8s.pt、yolov8m.pt、yolov8l.pt、yolov8x.pt(最大模型) model = YOLO('yolov8n.pt') # 这里以yolov8n为例 # === 训练配置 === results = model.train( data='custom_dataset.yaml', # 数据集配置文件路径(需要YOLO格式) epochs=100, # 总训练轮次(根据数据集大小调整) batch=16, # 批量大小(根据GPU显存调整) imgsz=640, # 输入图像尺寸 device='0', # 使用GPU设备('0'代表第一块GPU,CPU则用'cpu') workers=4, # 数据加载线程数 lr0=0.01, # 初始习率 lrf=0.01, # 最终习率(通过cosine scheduler调整) weight_decay=0.0005, # 权重衰减系数 # 迁移习相关配置 resume=False, # 是否从上次训练继续 pretrained=True, # 使用预训练权重(重要!迁移习必须开启) freeze=10, # 冻结前10层骨干网络(可选,防止小数据集过拟合) optimizer='SGD' # 选择优化器(可选SGD/Adam等) ) # === 数据集配置文件示例(custom_dataset.yaml)=== ''' path: /dataset/ train: images/train # 训练集图片路径 val: images/val # 验证集图片路径 # 类别数量及名称 names: 0: class1 1: class2 2: class3 ''' # === 执行训练 === if __name__ == '__main__': yolo_transfer_learning() ``` 关键注释说明: 1. 预训练模型选择: - 根据任务复杂度选择基础模型,小数据集建议使用yolov8n/s - 官方模型包含COCO数据集预训练权重,能有效提升收敛速度 2. 数据集配置要点: - 需要YOLO格式数据集(每张图片对应.txt标注文件) - 目录结构建议: /dataset /images /train /val /labels /train /val 3. 迁移习关键参数: - pretrained=True:加载预训练权重 - freeze=10:冻结前10层网络(可根据需求调整冻结层数) - 习率建议比从头训练小1个数量级(例如0.01而不是0.1) 4. 训练过程监控: - 训练时会自动生成runs/detect/train目录 - 包含损失曲线、验证结果、模型权重等输出 - 可使用TensorBoard进行可视化监控 5. 迁移习策略建议: - 第一阶段:冻结骨干网络,只训练检测头 - 第二阶段:解冻全部网络,微调全部层 (可通过修改freeze参数分阶段实现) 后续使用建议: ```python # 模型验证 model.val() # 使用验证集评估性能 # 推理预测 results = model.predict( source='test.jpg', # 输入源(图片/视频/目录) conf=0.25, # 置信度阈值 save=True # 保存检测结果 ) ``` 注意事项: 1. 数据集需要转换为YOLO格式(可使用labelImg等工具标注) 2. 类别数量修改会自动调整模型最后一层 3. 显存不足时可减小batch_size或imgsz 4. 推荐使用Linux系统+NVidia GPU训练(需安装CUDA) 5. 官方推荐训练epochs:小数据集(50-100),大数据集(300+)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值