软了个考——Beijing?北京!

作者分享了自己为软考准备两个月的过程,包括观看Java视频、填充软考知识、做真题等,强调了小黑板在弥补知识漏洞方面的作用。作者在考试前调整心态,并描述了考试过程中的经历,如路上的欢乐时光和考场内的情景。同时,作者还观察到部分考生在算法题上的表现,并反思了学习方法的重要性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

    准备了不知道多长时间的软考终于是落下了帷幕,至于以后会不会再升起来。。。听天由命吧- -

    虽然不敢保证稳过,但是总敢说这回的题确实简单了,尤其是下午题,难道真的是下半年的题比较简单?不管他简单不简单吧,起码尽力了。从九月开始看java视频,然后在软考知识大填充,最后再到十月的真题革命,总算是没有对不起自己俩月划水一样的努力。。。

    感觉收获最大的还是最后做题的一段时间,在我们疯狂的弥补知识漏洞的时候,是我们的小黑板君发挥了巨大的作用,要是没有它,感觉起码要少得个10来分。

    去考试之前的几天一直在调整心态,虽然我心态一直不错,但是这要去北京考的试还是小小的紧张了一把。都说考的时候一屋子都是提高班的人,但是我特喵的是个1号,能看见的只有监考老师的大脸。。。

    去北京的路上还是欢乐蛮多的,大伙都坐在一起打扑克,玩游戏,看视频什么的,简直狂欢一样,难道都是憋得太久了。。。起码那什么紧张的气氛是没了,比起考试,更像是一日游。

    在考场上果然是放眼望去一个人都看不见,不过监考老师挺好的,在考场里面坐着的时候还聊了会天,他还说比起成人高考那批人,我们安静多了。。。我只能说还好我那屋咱们的人少。。。

    考下午题的时候,按照惯例研究了半个小时的算法,然后把会写的都写了,然后没事就检查卷子玩,看看做我左后方的妹子做的怎么样了,远眺一下后排大叔,最后再和监考老师来个深情对望。。。然后我发现了一个现象,我偷偷看到的几个人的卷子,大部分人的算法都没写,更有人就是空的。上午的时候起码70%的人提前交卷走了,而到下午最多40%。

    简直是典型的背书型学习,等到算法、UML、设计模式这些东西的时候,不多用用怎么理解,不理解也就写不出来了,有些东西不是背就能会的啊。

    回来之后确实累的不行了,老李叫去通宵都搞不动了,躺在床上的时候,就感觉以后再也没有什么过不去难题了,什么时间不够啦,逻辑不会啦,算法看不懂啦,都是小事!

    挺晚的了,不瞎说话了,大伙安心等着成绩。

    我自横刀向天笑,笑完我去睡大觉~

     


以下是一个简单的 Python 爬虫实现,用于从北京租房信息网站上爬取租房信息并将其导入到 Excel 文件中。 首先,我们需要安装以下 Python 库: - requests:用于发送 HTTP 请求和获取网页内容。 - Beautiful Soup:用于解析 HTML 和 XML 网页内容。 - openpyxl:用于操作 Excel 文件。 可以使用 pip 命令进行安装: ``` pip install requests beautifulsoup4 openpyxl ``` 接下来,我们需要编写 Python 代码: ```python import requests from bs4 import BeautifulSoup from openpyxl import Workbook # 发送 HTTP 请求并获取网页内容 url = 'https://bj.zu.anjuke.com/fangyuan/p1/' response = requests.get(url) html = response.text # 使用 Beautiful Soup 解析网页内容 soup = BeautifulSoup(html, 'html.parser') houses = soup.select('.zu-itemmod') # 创建 Excel 文件并添加表头 wb = Workbook() ws = wb.active ws.append(['标题', '链接', '小区', '面积', '租金']) # 遍历租房信息并将其添加到 Excel 文件中 for house in houses: title = house.select('.zu-info h3 a')[0].text.strip() link = house.select('.zu-info h3 a')[0]['href'] community = house.select('.details-item')[0].text.strip() area = house.select('.details-item')[1].text.strip() price = house.select('.zu-side strong')[0].text.strip() ws.append([title, link, community, area, price]) # 保存 Excel 文件 wb.save('beijing_rent.xlsx') ``` 该爬虫程序将会从北京租房信息网站的第一页开始爬取租房信息,包括标题、链接、小区、面积和租金,并将其添加到 Excel 文件中。你可以根据需要修改代码以实现更多功能。
评论 14
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值