吟江东岁

       春到江东玉兰渚,
一泓水,花千树。
纷扬落瓣清明雨,
矮山翠,琼楼素。

斜风絮柳青泥路,
独行者,伶俜伫。
去乡再捧一抔土,
别离泪,忍不住。
俗话说,‘熟读唐诗三百首,不会诗也会’,请分析附件的唐诗300首文本文件。 完成下列功能:(部分功能需要使用jieba第三方库) 统计每首诗歌的作者,如果第一行输入‘作者’,第二行则输入一个整数n,输出出现最多的作者前n个,出现次数相同时,按作者出现顺序排序。每行输出一个名字和出现次数,以空格间隔,程序结束 统计作者的名字出现的次数,如果第一行输入‘人物’,第二行则输入一个整数n,输出出现最多的作者前n个,出现次数相同时,按作者出现顺序排序。每行输出一个名字和对应出现次数,以空格间隔,程序结束 注:有的诗人在诗名或诗句中用到了别的诗人的名字。如’梦李白二首之一‘。因此第1,2项目之间的数据可能有所差异。 如果输入某个字符串编号,范围和格式在’010‘-’320‘之间(测试用例保证编号存在),输出对应该编号的诗句。 输出格式:去掉首行诗歌编号,其余格式与文件中诗歌显示格式相同。 如果输入‘唐诗’,输出文件中的诗词数量,程序结束 飞花令,如果第一行输入'飞花',则可以在第二行输入s中文字符(长度为1),然后按照在文件中出现的顺序,输出唐诗300首文件包含该中文字符的诗句(长度不超过7的诗句),每行一句。 如果非以上输入,输出‘输入错误’,程序结束 请严格按照输入输出示例的格式编写程序输出 输入输出示例 示例仅为格式示例,与测试数据无关 示例1: 输入: 作者 1 输出: 杜甫 37 示例2: 输入: 人物 2 输出: 杜甫 37 李白 33 示例3: 输入: 084 输出: 李白 行路难三首之三 有耳莫洗颍川水 有口莫食首阳蕨 含光混世贵无名 何用孤高比云月 吾观自古贤达人 功成不退皆殒身 子胥既弃吴江上 屈原终投湘水滨 陆机雄才岂自保 李斯税驾苦不早 华亭鹤唳讵可闻 上蔡苍鹰何足道 君不见 吴中张翰称达生 秋风忽忆江东行 且乐生前一杯酒 何须身后千载名 示例4: 输入: 飞花 秦 输出: 秦地罗敷女 孔子西行不到秦 居人未改秦衣服 始与秦塞通人烟 况复秦兵耐苦战 赐名大国虢与秦 城阙辅三秦 河山北枕秦关险 渭水自萦秦塞曲 山色遥连秦树晚 夜泊秦淮近酒家 嵩云秦树久离居 秦时明月汉时关 示例5: 输入: 21 输出: 输入错误。请帮我编写详细代码
02-06
### 使用 Python 爬虫抓取江东商品数据 为了实现这一目标,可以采用 `requests` 和 `BeautifulSoup` 库来完成网页抓取的任务。以下是具体的方法: #### 准备工作 确保安装了必要的库: ```bash pip install requests beautifulsoup4 lxml ``` #### 抓取流程 1. **指定 URL** 需要找到提供江东商品信息的具体网址并将其作为目标URL。 2. **发起请求** 利用 `requests` 发送 HTTP 请求到服务器获取网页内容。 3. **解析 HTML 文档** 使用 `BeautifulSoup` 解析HTML文档结构以便提取所需的信息。 4. **保存或处理数据** 将收集来的信息存入文件数据库或其他形式用于后续分析。 下面是一个简单的例子展示如何操作这些步骤[^1]: ```python import requests from bs4 import BeautifulSoup def get_jiangdong_product_info(): # 指定url url = "http://example.jiangdong.com/products" # 这里应替换为实际的目标链接 try: # 发起请求 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)', } response = requests.get(url, headers=headers) if response.status_code == 200: soup = BeautifulSoup(response.content.decode('utf-8'), features="lxml") products = [] items = soup.find_all('div', class_='product-item') for item in items: name = item.select_one('.name').get_text(strip=True) price = float(item.select_one('.price').get_text(strip=True).replace('$', '')) product = {"Name": name, "Price": price} products.append(product) return products else: print(f"Failed to retrieve data from {url}. Status code: {response.status_code}") except Exception as e: print(e) if __name__ == '__main__': result = get_jiangdong_product_info() if result is not None: for r in result[:5]: print(r) ``` 这段代码展示了基本的爬虫逻辑,并假设了一个虚构的商品列表页面布局。对于真实的项目来说,可能还需要考虑更多细节比如分页加载、反爬机制等问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值