记一次有惊无险的删除usr/bin/as文件的经历,《自制编译器》环境配置

在学习LLVM时,按照32位系统的方法操作,误删了64位Linux的系统命令as。通过网络资源,了解到可以通过备份和从其他服务器获取as文件来恢复。问题解决后,继续LLVM的学习旅程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

因为想学习一下llvm,于是从自制编译器这本书开始看
然后那本书是基于32位的代码
网站上附了64位系统的操作方法
就是把原来的usr/bin/as重命名为as_bk,再新建个as把as_bk的输出再加工一次成为32位的指令
好巧不巧,我一开始没有意识到这个操作
就机械执行它的命令
不知道出了什么差错
我就把as给删了,之后我发现我靠,我把原来文件as给删了
找了一下没人和我一样sb
我就想只能从其他服务器的as文件扒一下了
然后恢复了
哈哈哈

64位的linux见这个方法
https://github.com/leungwensen/cbc-ubuntu-64bit/issues/10

https://github.com/leungwensen/cbc-ubuntu-64bit

Python爬虫是一种自动化获取互联网上数据的技术。它通过模拟浏览器行为,发送HTTP请求并解析响应内容,从而实现对网页数据的提取处理。下面是Python爬虫的工作原理常用框架的介绍: 1. 工作原理: - 发送请求:爬虫通过发送HTTP请求获取目标网页的内容,可以使用Python中的requests库或者urllib库来发送GET或POST请求。 - 解析内容:获取到网页的响应后,爬虫需要解析HTML或者其他格式的内容,提取出需要的数据。常用的解析库有BeautifulSoup、lxml等。 - 数据处理:爬虫可以对提取到的数据进行清洗、筛选、存储等操作,可以使用Python中的正则表达式、pandas等库进行数据处理。 - 遍历链接:爬虫可以通过解析网页中的链接,实现对其他页面的访问数据提取,从而实现深度爬取。 2. 常用框架: - Scrapy:Scrapy是一个强大的Python爬虫框架,它提供了高度可定制化可扩展性的结构,支持异步处理分布式爬取。 - BeautifulSoup:BeautifulSoup是一个用于解析HTMLXML文档的Python库,它提供了简单灵活的API,方便提取网页中的数据。 - Selenium:Selenium是一个自动化测试工具,也可以用于爬虫。它可以模拟浏览器行为,支持JavaScript渲染的页面爬取。 - PyQuery:PyQuery是一个类似于jQuery的Python库,它可以方便地解析HTML文档,并使用类似于CSS选择器的语法来提取数据。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值