python爬取arXiv论文元数据

需要相关学科、主题的论文元数据做一些分析,arXiv开源,容易获取。
显示选择了考虑用arXiv的api去实现,相关手册见👉arXiv-api
但貌似每次我都被卡在3000条数据就停止了,所以我选择用传统的lxml,bs4直接爬取,但仍然被限制爬取10000条。
直接上完整代码,后面解释

from lxml import html
import requests
import re
import math
import csv
from bs4 import BeautifulSoup
import time

def get_total_results(url):
    """获取总结果数"""
    response = requests.get(url)
    tree = html.fromstring(response.content)
    result_string = ''.join(tree.xpath('//*[@id="main-container"]/div[1]/div[1]/h1/text()')).strip()
    match = re.search(r'of ([\d,]+) results', result_string)
    if match:
        total_results = int(match.group(1).replace(',', ''))
        return total_results
    else:
        print("没有找到匹配的数字。"
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值