【日拱一卒行而不辍20221012】自制操作系统

本文探讨了将操作系统从软盘启动迁移到硬盘启动的过程和技术细节。介绍了如何利用命令行工具完成硬盘的初始化、文件复制等操作,并分析了软盘空间使用情况。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

向硬盘进发

基于软盘Floppy的操作系统的研究已经基本告一段落。

后面要做的是把整个系统移植到从硬盘直接启动。

软盘的标称容量是1.44M,而硬盘动辄几十上百G,可以使用的空间远远超过软盘,而且远超过32位操作系统的4G内存,从而可以从实用意义上实现内存的换页。

另外,从接口驱动的角度。当把硬盘研究清楚后,以键盘为代表的的流设备和以硬盘为代表的块设备均得到了实践,为广阔的接口设计打下了模式基础。相比而言,鼠标并不典型。

命令行对硬盘的操

平时从硬盘复制粘贴删除的操作均是基于GUI的界面操作,当可以通过命令行直接进行操作后,打开了新世界的又一扇大门。

基本框架如下:

buildimg :
	dd if=boot/boot.bin of=$(IMG) bs=512 count=1 conv=notrunc
	sudo mount -o loop $(IMG) /mnt/hd/
	sudo cp -fv boot/loader.bin /mnt/hd/
	sudo cp -fv kernel.bin /mnt/hd
	sudo umount /mnt/hd

首先是第一扇区的直写dd引导数据;

其次是通过命令行向硬盘复制cp文件。

软盘已用空间

那么话又说回来,软盘中目前的操作系统占据了1.44M的多少空间?

从图中可见,目前的操作系统1440K只用了不到16K,只占1.1%,不到2%。因此,哪怕只是研究这个1.44M的软盘,也可以在相当长的时间内开发出规模较复杂的操作系统。

 

以下是一个使用Java实现的简单Kafka消费者线程池示例: ```java import java.util.Arrays; import java.util.Properties; import java.util.concurrent.ExecutorService; import java.util.concurrent.Executors; import org.apache.kafka.clients.consumer.ConsumerConfig; import org.apache.kafka.clients.consumer.ConsumerRecord; import org.apache.kafka.clients.consumer.ConsumerRecords; import org.apache.kafka.clients.consumer.KafkaConsumer; public class KafkaConsumerThreadPool { private final KafkaConsumer<String, String> consumer; private final String topic; private ExecutorService executor; public KafkaConsumerThreadPool(String brokers, String groupId, String topic) { Properties prop = createConsumerConfig(brokers, groupId); this.consumer = new KafkaConsumer<>(prop); this.topic = topic; } public void shutdown() { if (consumer != null) { consumer.close(); } if (executor != null) { executor.shutdown(); } } public void run(int numThreads) { executor = Executors.newFixedThreadPool(numThreads); for (int i = 0; i < numThreads; i++) { executor.submit(new KafkaConsumerThread(consumer, topic)); } } private static Properties createConsumerConfig(String brokers, String groupId) { Properties props = new Properties(); props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, brokers); props.put(ConsumerConfig.GROUP_ID_CONFIG, groupId); props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, "true"); props.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, "1000"); props.put(ConsumerConfig.SESSION_TIMEOUT_MS_CONFIG, "30000"); props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer"); props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer"); return props; } public static void main(String[] args) { String brokers = "localhost:9092"; String groupId = "test-group"; String topic = "test-topic"; int numThreads = 4; KafkaConsumerThreadPool example = new KafkaConsumerThreadPool(brokers, groupId, topic); example.run(numThreads); } } class KafkaConsumerThread implements Runnable { private final KafkaConsumer<String, String> consumer; private final String topic; public KafkaConsumerThread(KafkaConsumer<String, String> consumer, String topic) { this.consumer = consumer; this.topic = topic; } public void run() { consumer.subscribe(Arrays.asList(this.topic)); while (true) { ConsumerRecords<String, String> records = consumer.poll(100); for (ConsumerRecord<String, String> record : records) { System.out.println(Thread.currentThread().getName() + " : " + record.value()); } } } } ``` 在上面的代码示例中,KafkaConsumerThreadPool类是一个简单的Kafka消费者线程池实现,其中run方法启动了numThreads个线程,每个线程都创建了一个KafkaConsumerThread对象,并调用executor.submit(task)方法提交到线程池中执。KafkaConsumerThread类是一个简单的消费者线程实现,其中run方法中的代码是从Kafka主题中读取消息并处理的逻辑。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值