【日拱一卒行而不辍20220923】自制操作系统

页目录切换

在任务切换时,通过改变cr3的值来切换页目录,从而改变地址映射关系。

这就是分页的妙处。

由于分页机制的存在,程序使用的都是线性地址空间,而不再是直接的物理地址。

这好像操作系统为应用程序提供了一个不依赖于硬件(物理内存)的平台,应用程序不必关心实际上有多少物理内存,也不必关心正在使用的是那一段内存,甚至不必关心某一个地址是在物理内存里面还是在硬盘中。

操作系统全权负责了这其中的转换工作。

实现每一个进程的平坦线性地址空间意义非凡。

目前这些功能、原理、模式的验证均可以在NASM汇编下进行。

C语言的其实可以在相当晚的时机引入。

如果CPU是一艘船,寄存器是CPU的船桨,内存是CPU的海洋。

汇编语言本质是对CPU寄存器进行修改的编程。

将物理内存和线性内存划分为同等大小的页,一页线性内存可以对应一页真实的物理内存,这样就可以让连续的线性地址对应上不连续的物理地址。

页目录表的物理地址是存放在CR3寄存器中的。

如:

DS寄存器代表数据从哪里来。

ES寄存器代码数据要到哪里去。

mov dl, ds:[bx]
mov es:[bx], dl

打开分页的步骤

如何开启分页机制呢,也简单,分为如下三个步骤:

1、创建页目录表并初始化页内存。  

2、将页目录表地址赋值为CR3。  

3、打开CR0寄存器的PG位。

根据上述打开分页的步骤,可以发现其与GDT/IDT等机制有相同的开启流程:

1、构建描述分层索引关系的数据表项;

2、把数据表项的首地址提交给某寄存器;

3、使能此功能。

完整的一个进程是需要和操作系统配合才能完成正常的工作。

也就是说每一个进程里面应该包含操作系统部分。

Linux下的每一个进程,高1GB的空间就是留给操作系统的,低3GB的空间就是留给进程用户空间自身的。

对于这高1GB的空间,我们并不是每创建一个新的进程,就将操作系统代码给复制到这1GB的空间中,这样显得笨重而且随着进程数的增加会占用更多的内存。

实际上操作系统的代码只有一份,我们每创建一个新的进程,就让该进程的高1GB空间指向操作系统即可。

以下是一个使用Java实现的简单Kafka消费者线程池示例: ```java import java.util.Arrays; import java.util.Properties; import java.util.concurrent.ExecutorService; import java.util.concurrent.Executors; import org.apache.kafka.clients.consumer.ConsumerConfig; import org.apache.kafka.clients.consumer.ConsumerRecord; import org.apache.kafka.clients.consumer.ConsumerRecords; import org.apache.kafka.clients.consumer.KafkaConsumer; public class KafkaConsumerThreadPool { private final KafkaConsumer<String, String> consumer; private final String topic; private ExecutorService executor; public KafkaConsumerThreadPool(String brokers, String groupId, String topic) { Properties prop = createConsumerConfig(brokers, groupId); this.consumer = new KafkaConsumer<>(prop); this.topic = topic; } public void shutdown() { if (consumer != null) { consumer.close(); } if (executor != null) { executor.shutdown(); } } public void run(int numThreads) { executor = Executors.newFixedThreadPool(numThreads); for (int i = 0; i < numThreads; i++) { executor.submit(new KafkaConsumerThread(consumer, topic)); } } private static Properties createConsumerConfig(String brokers, String groupId) { Properties props = new Properties(); props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, brokers); props.put(ConsumerConfig.GROUP_ID_CONFIG, groupId); props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, "true"); props.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, "1000"); props.put(ConsumerConfig.SESSION_TIMEOUT_MS_CONFIG, "30000"); props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer"); props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer"); return props; } public static void main(String[] args) { String brokers = "localhost:9092"; String groupId = "test-group"; String topic = "test-topic"; int numThreads = 4; KafkaConsumerThreadPool example = new KafkaConsumerThreadPool(brokers, groupId, topic); example.run(numThreads); } } class KafkaConsumerThread implements Runnable { private final KafkaConsumer<String, String> consumer; private final String topic; public KafkaConsumerThread(KafkaConsumer<String, String> consumer, String topic) { this.consumer = consumer; this.topic = topic; } public void run() { consumer.subscribe(Arrays.asList(this.topic)); while (true) { ConsumerRecords<String, String> records = consumer.poll(100); for (ConsumerRecord<String, String> record : records) { System.out.println(Thread.currentThread().getName() + " : " + record.value()); } } } } ``` 在上面的代码示例中,KafkaConsumerThreadPool类是一个简单的Kafka消费者线程池实现,其中run方法启动了numThreads个线程,每个线程都创建了一个KafkaConsumerThread对象,并调用executor.submit(task)方法提交到线程池中执。KafkaConsumerThread类是一个简单的消费者线程实现,其中run方法中的代码是从Kafka主题中读取消息并处理的逻辑。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值