从 GitHub 批量下载项目各版本的方法

一、脚本功能概述

这个 Python 脚本的主要功能是从 GitHub 上下载指定项目的各个发布版本的压缩包(.zip 和 .tar.gz 格式)。用户需要提供两个参数:一个是包含项目信息的 CSV 文件,另一个是用于保存下载版本信息的 CSV 文件。脚本会遍历项目列表,访问每个项目的 tags 页面,下载所有可用的版本压缩包,并记录相关信息到指定的 CSV 文件中。

二、脚本使用说明

在运行脚本前,请确保你已经安装了 requests 和 beautifulsoup4 库。如果未安装,可以使用以下命令进行安装:

bash

pip install requests beautifulsoup4

运行脚本时,在命令行中输入以下格式的命令:

bash

python script.py project_list.csv save_info.csv

其中,script.py 是脚本文件名,project_list.csv 是包含项目信息的 CSV 文件,save_info.csv 是用于保存下载版本信息的 CSV 文件。

下面是完整的脚本。

import requests
from bs4 import BeautifulSoup
import os
import csv
import sys
import time
import random
from urllib.error import HTTPError
import signal


# 设置GitHub API的个人访问令牌
# 从这里获取:https://github.com/settings/tokens
access_token = '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'

# 分页参数
page = 1
num = 0
savelastfilename =""
lastfilename = ""
url_with_page = ""
fieldnames = ['项目名称', 'tags', '版本号', '压缩包名','是否有发布']
file = None
writer = None

proxies = {
    "https1": "https://182.204.177.61:4331",
    "https2": "https://140.255.150.253:4361",
    "https3": "https://113.231.18.51:4334",
    "https4": "https://116.7.192.240:43581",
    "https5": "https://121.61.160.170:43311",
    "https6": "https://124.231.69.245:43311",
    "https7": "https://183.128.97.139:43251",
    "https8": "https://124.94.188.113:43341",
    "https9": "https://1.82.107.78:4389",
    "https10": "https://1.82.107.49:4379",
}

headers = {
    'User-Agent': 'Mozilla/5.0',
    'Authorization': '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',
    'Content-Type': 'text/html',
    'Accept': 'application/json'
}


# 定义信号处理函数
def signal_handler(sig, frame):
    print("\n收到了中断信号,程序退出!!!")
    sys.exit(0)

# 注册信号处理函数
signal.signal(signal.SIGINT, signal_handler)

def get_html_url_with_tags(file_name):
    html_urls = []
    Name = ''
    with open(file_name, 'r', newline='') as file:
        reader = csv.DictReader(file)
        for row in reader:
            Name = row.get('Name')
            html_url = row.get('HTML URL')
            if html_url:
                new_html_url = html_url + "/tags"
                html_urls.append(new_html_url)
                #print("Name="+ Name +"  url=" + new_html_url)
    return Name,html_urls

def download_file(url, save_path, timeout=20, max_retries=3):
    retries = 0
    while retries < max_retries:
        try:
            # 发送GET请求获取文件内容,设置超时时间
            #@retry(tries=3, delay=2)  # 重试3次,每次间隔2秒
            #response = requests.get(url, proxies=proxies, headers=headers, timeout=15)
            response = requests.get(url, proxies=proxies, timeout=15)
            # 检查响应状态码
            if response.status_code == 200:
                # 写入文件
                print(f"正在下载文件{save_path}...",end='')
                with open(save_path, 'wb') as f:
                    f.write(response.content)
                print(f"...文件下载完成")
                return True
            else:
                print(f"下载失败:状态码 {response.status_code}")
                #print("下载失败:超过最大重试次数")
                check_connection_error(response)
        except requests.exceptions.Timeout:
            print(f"请求超时,正在尝试重试...", end="")
        except requests.exceptions.RequestException as e:
            print(f"请求异常:{e}", end="")

        retries += 1
        print(f"重试次数:{retries}")
    
    return False

def check_connection_error(response):
    """检查是否由于连接问题而无法访问 GitHub"""
    if response.status_code == 200:
        print("返回200!")
        return True
    if response.status_code == 403:
        print("已达到 GitHub API 请求限制!")
        return False
    elif response.status_code == 400:
        print("服务器无法理解请求!")
        return False
    elif response.status_code == 502:
        print("远程服务器关闭了连接。")
        return False
    elif response.status_code == 404:
        print("未找到请求的资源。")
        return False
    elif response.status_code == 407:
        print("代理服务器需要身份验证!")
        return False
    elif response.status_code == 406:
        print("客户端请求问题,可能是代理失效,建议更换代理IP列表")
        return False
    elif response.status_code == 429:
        print("请求过多,请稍后重试。")
        return False
    elif response.status_code == 504:
        print("网关超时,等等并重试或更换其它代理!")
        return False
    elif response.status_code >= 500:
        print("远程服务器内部错误。")
        return False
    else:
        try:
            print("远程服务器返回未知错误,正在尝试获取更多详细信息...")
            response.raise_for_status()  # 如果请求失败,这将抛出一个 HTTPError 异常
            print("获取详细信息失败,当前状态码为:", response.status_code)
            return False  # 如果无法获取详细信息,则返回 False,表示请求失败
        except HTTPError as e:
            print("发生了 HTTPError 异常:", e)
            return False  # 如果抛出 HTTPError 异常,则返回 False,表示请求失败
        except ConnectionError as ce:
            print("连接被远程服务器关闭,没有返回任何响应。")
            return False  # 如果捕获到 ConnectionError 异常,则返回 False,表示请求失败
        except requests.exceptions.Timeout:
            print("连接超时:可能是由于网络问题导致的连接失败")
            return False
        except requests.exceptions.ConnectionError:
            print("连接错误:无法连接到服务器")
            return False
        except requests.exceptions.RequestException as e:
            print("请求异常,最可能是代理问题:", e)
            return False

def wait_and_retry(wait_time=30):
    """等待一段时间后重试请求"""
    print(f"等待 {wait_time} 秒后重试...")
    time.sleep(wait_time)

def get_github_rate_limit(headers):
    url = "https://api.github.com/rate_limit"
    headers = {
        'User-Agent': 'Mozilla/5.0',
        'Authorization': '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',
        'Content-Type': 'text/html',
        'Accept': 'application/json'
    }
    #response = requests.get(url, proxies=proxies, headers=headers)
    response = requests.get(url, proxies=proxies)
    data = response.json()
    limit = data["rate"]["limit"]
    remaining = data["rate"]["remaining"]
    reset_time = data["rate"]["reset"]
    print(f"限速检查完成...")
    return limit, remaining, reset_time 

def update_ifcheck_value(file_name, Name):
    """打开 CSV 文件,将指定 Name 对应的行的 ifcheck 字段值修改为 1"""
    rows = []
    with open(file_name, 'r', newline='') as file:
        reader = csv.DictReader(file)
        fieldnames = reader.fieldnames  # 获取表头字段名
        for row in reader:
            if row.get('Name') == Name:
                row['ifcheck'] = '1'  # 将 ifcheck 字段值修改为 1
            rows.append(row)
    # 写回 CSV 文件
    with open(file_name, 'w', newline='') as file:
        writer = csv.DictWriter(file, fieldnames=fieldnames)
        writer.writeheader()
        writer.writerows(rows)

def renamefile(name,filename):
    current_path = os.getcwd()
    old_name = filename
    # 设置新的文件名
    new_name = name + "_" + filename
    # 构建新文件的完整路径
    new_path = os.path.join(current_path, new_name)
    # 构建旧文件的完整路径
    old_path = os.path.join(current_path, old_name)
    # 重命名文件
    if os.path.isfile(new_path):
        return False
    else:
        os.rename(old_path, new_path)
        return True

def analyze_download_links(Name, url):
    global lastfilename,num,headers
    global writer,file
    while True:
        
        #判断是否为多页
        if num == 20:
            url_with_page = url + "?after=" + lastfilename
            num = 0
        else:
            url_with_page = url
        print("访问的url=" + url_with_page)
        
        #判断是否被限速,被限速的话,等待10~20秒
        limit, remaining, reset_time=get_github_rate_limit(headers)
        if remaining == 0:
            count = 1
            time.sleep(random.randint(10, 20))
            print("剩余请求次数为 0 了,现在更新header" )
            headers = {
                'User-Agent': 'User-Agent:Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0',
                'Authorization': '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',
                'Content-Type': 'text/html',
                'Accept': 'application/json'
            }
        
        #通过一个代理列表中中的一个代理获取当前url项目的tags页面
        #response = requests.get(url_with_page,proxies=proxies, headers=headers)
        #直接获取当前url项目的tags页面
        response = requests.get(url_with_page,proxies=proxies)
        #进行容错判断,如果链接错误,则等一会重新链接
        print("进行服务器返回检查中..." )
        if False == check_connection_error(response):
            wait_and_retry()
            print("服务器返回错误,请稍等一会..." )
            #time.sleep(random.randint(10, 20))
            headers = {
                'User-Agent': 'Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11',
                'Authorization': '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',
                'Content-Type': 'text/html',
                'Accept': 'application/json'
            }
            continue
        #如果没有响应,则10~20秒,更换header重新链接
        if response is None:
            # Exit loop if HTTP Error 422
            print("GitHub 未响应")
            time.sleep(random.randint(10, 20))
            headers = {
                'User-Agent': 'Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11',
                'Authorization': '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',
                'Content-Type': 'text/html',
                'Accept': 'application/json'
            }
            continue
        #如果返回200,说明请求正确,处理返回数据
        if response.status_code == 200:
            soup = BeautifulSoup(response.text, 'html.parser')
            #如果项目tags中没有版本,则返回     
            if "There aren’t any releases here" in response.text:
                with open(save_file_name, 'a', newline='') as file:
                    writer = csv.writer(file)
                    writer.writerow([Name, url, '', '','0'])
                print("当前项目tags下无发布版本")
                break
            #H抓取tags页面中所有的下载链接
            download_links = soup.find_all('a', href=lambda href: href and (href.endswith('.zip') or href.endswith('.tar.gz')))
            #print("所有链接:" + download_links)
            if len(download_links) == 0:
                print("当前项目tags下无发布版本")
                break
            #分析每一个链接
            for link in download_links:
                #print("Found download link:", link['href'])
                file_name = os.path.basename(link['href'])  #file_name是压缩包名字

                if os.path.isfile(file_name):
                    print("该项目版本已经下载,略过!")
                    continue
               
                if download_file("https://github.com/" + link['href'], file_name):  #拼接为完整下载链接后下载文件
                    #print(f"确认文件已下载完成")
                    renamefile(Name,file_name)
                    
                    lastfilename, _ = os.path.splitext(file_name)  #lastfilename 是去掉.zip或.gz后的文件名
                    if lastfilename.endswith('.tar'):  #如果后面还有tar后缀
                        lastfilename, _ = os.path.splitext(lastfilename)  #lastfilename 文件名称,实际上版本号
                    #项目名称,tags url、版本号和压缩包文件名,是否找到发布包写入文件。1表示有发布包
                    with open(save_file_name, 'a', newline='') as file:
                        writer = csv.writer(file)
                        writer.writerow([Name, url, lastfilename, file_name,'1'])
                    num = num + 1  #当前下载文件数加1
                else:
                    headers = {
                        'User-Agent': 'Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11',
                        'Authorization': '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',
                        'Content-Type': 'text/html',
                        'Accept': 'application/json'
                    }
                    print(f"更换header重新下载...")
                    download_file("https://github.com/" + link['href'], file_name)  #拼接为完整下载链接后下载文件
                if  num == 20:
                    continue
                #如果有多页,每页返回10个版本,一共20个压缩包,如果不到20表示版本页面不到一页,    
            if num < 20:
                break
        #user_input = input("请输入任意内容,按 Enter 键结束程序:")
        #if user_input:
        #    print("用户输入了ctrl+C:", user_input)
        #
        #break
        else:
            print(f'页面返回不是200时,返回状态码是: {response.status_code}')
            continue
 
# 测试程序
if __name__ == "__main__":
    if len(sys.argv) != 3:
        print("请提供两个参数:第一个参数是项目列表;第二个需要创新的文件用来保存该项目版本信息")
        sys.exit(1)
    
    file_name = sys.argv[1]
    if not file_name.endswith('.csv'):
        print("Please provide a CSV file.")
        sys.exit(1)
    if os.path.exists(file_name):
        print("打开文件,开始分析...") 
    else:
        print("输入文件不存在,请确认")
        sys.exit(1)
    
    save_file_name = sys.argv[2]
    if not save_file_name.endswith('.csv'):
        print("Please provide a CSV save file.")
        sys.exit(1)
    #如果保存文件不存在,则创建文件,添加表头
    if os.path.exists(save_file_name):
        print("保存文件已经存在,会在文件后面追加数据") 
    else:
        with open(save_file_name, 'a', newline='') as file:
            writer = csv.writer(file)
            writer.writerow(fieldnames)

    #Name,html_urls = get_html_url_with_tags(file_name)
    #for url in html_urls:
    Name = ''
    with open(file_name, 'r', newline='') as file:
        reader = csv.DictReader(file)
        for row in reader:
            ifcheck = row.get('ifcheck')
            Name = row.get('Name')
            html_url = row.get('HTML URL')
            if ifcheck == '0' and html_url:
                new_html_url = html_url + "/tags"
                analyze_download_links(Name,new_html_url)
                update_ifcheck_value(file_name, Name)
            #user_input = input("您的输入中断了下载,按Ctrl+C键结束程序,其它键继续下载")
            #if user_input:
             #   print("用户输入了:", user_input)
             #   break
    print("检测完成!") 

————————————————————————————————

<think>嗯,用户问如何从GitHub批量下载文件,我需要一步步帮他解决这个问题。首先,我应该考虑用户可能的需求场景,比如他们可能想下载整个仓库的特定文件夹或者多个文件,而不是整个仓库。或者他们可能没有安装Git,所以需要不需要命令行的方法。 首先,我应该介绍最简单的方法,比如直接下载整个仓库的ZIP文件。这对于新手来说最方便,只需要点几下就行。但用户想要的是批量下载部分文件,而不是整个仓库,所以可能需要其他方法。 接下来,可能需要提到使用Git克隆整个仓库,然后用命令删除不需要的文件。不过如果用户不熟悉命令行,这可能有点复杂。但Git的方法确实有效,特别是对于需要经常更新代码的情况。 然后,可以考虑浏览器扩展或者工具,比如DownGit,这可以帮助用户下载特定文件夹。这类工具对普通用户比较友好,不需要命令行,但需要信任第三方网站的安全性,可能需要提醒用户注意这一点。 另外,还可以介绍使用第三方脚本或者工具,比如svn或者GitHub的API。SVN的方法可能对部分用户来说比较陌生,但确实有效。而API可能需要编程知识,适合开发者,但普通用户可能不太适用。 还要考虑用户是否知道如何找到文件的原始链接,用wget或者curl来批量下载,但这种方法需要手动收集所有文件的URL,比较麻烦,可能适合少量文件的情况。 可能还需要提到一些注意事项,比如仓库大小、网络问题,以及权限问题,比如私有仓库需要认证。此外,批量下载时要注意GitHub的服务条款,避免滥用。 最后,应该总结一下,根据用户的技术水平选择合适的方法,推荐最简单的方式,比如DownGit或者ZIP下载,然后处理不需要的文件。如果有Git经验,克隆仓库更高效。 需要确保步骤清晰,分点说明,每个方法有具体步骤和适用场景。同时,避免使用专业术语过多,保持语言口语化,让用户容易理解。可能还需要检查是否有遗漏的方法,比如使用第三方Python脚本或者工具,但可能超出用户的需求范围,保持回答简洁实用。</think>以下是几种从GitHub批量下载文件的常用方法,根据需求选择最适合的方式: --- ### 一、下载整个仓库(最简单) 1. 访问GitHub仓库页面 2. 点击绿色按钮 `Code` ➔ 选择 `Download ZIP` 3. 解压后获得全部文件 ✅ 适用场景:需要完整仓库内容且网络通畅 --- ### 二、仅下载指定文件夹/文件 #### 方法1:浏览器工具 DownGit 1. 访问 [https://minhaskamal.github.io/DownGit](https://minhaskamal.github.io/DownGit) 2. 粘贴GitHub文件夹/文件的完整URL(如:`https://github.com/user/repo/tree/main/folder`) 3. 点击 `Download` 生成专属下载链接 ✅ 特点:无需技术基础,支持单文件/文件夹 #### 方法2:SVN命令(需安装SVN客户端) ```bash svn export https://github.com/user/repo/trunk/path/to/folder ``` ✅ 特点:精准下载子目录,需替换URL中的`tree/main`为`trunk` --- ### 三、命令行操作(需安装Git) ```bash git clone https://github.com/user/repo.git # 克隆整个仓库 cd repo git sparse-checkout init --cone # 启用稀疏检出 git sparse-checkout set folder1 folder2 # 指定需保留的文件夹 ``` ✅ 特点:适合后续需要同步更新的项目 --- ### 四、批量下载独立文件 1. 在GitHub页面逐个打开文件 2. 点击`Raw`获取原始文件链接 3. 使用`wget`批量下载(示例): ```bash wget https://raw.githubusercontent.com/user/repo/main/file1.txt wget https://raw.githubusercontent.com/user/repo/main/file2.jpg ``` --- ### 📝 注意事项 1. 大仓库下载可能超时,建议优先用`git clone` 2. 私有仓库需添加SSH密钥或使用PAT令牌 3. 遵守仓库的LICENSE许可协议 建议普通用户优先使用 **DownGit工具** 或 **ZIP下载+手动删减**,开发者推荐 `git sparse-checkout` 方案。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

manok

你的打赏很重要

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值