fetch_20newsgroups报错403的解决办法,附带朴素贝叶斯算法应用

本文指导如何在PyCharm中下载并使用fetch_20newsgroups数据集,通过TfidfVectorizer和MultinomialNB实现朴素贝叶斯算法对新闻进行分类,包括数据预处理和模型评估。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

下载地址  http://qwone.com/~jason/20Newsgroups/20news-bydate.tar.gz

先需要到以上的地址下载fetch_20newsgroups的压缩包

下载后的压缩包名字应该为20news-bydate.tar.gz

先将压缩包放入C:\\Users\\(自己的电脑名)\\scikit_learn_data\\20news_home\\的文件夹中

首先找到Pycharm右下角的这个解释器(Python3.11(每个人的地址可能不一样,有些人可能是默Python安装的默认地址)),点击它,进入interpreter Steeings

进入后查看解释器所在的地址,先别着急进入地址,看下一步

像我的在D盘,就是要找到这个地址里的Lib文件D:\pydemo\venv\Lib\site-packages\sklearn\datasets里面有一个 _twenty_newsgroups.py 文件,你自己可以对着自己的地址查找看看,只需要找到最后这个文件即可

其次我们用记事本打开找到一个是(在代码开头往下很近的地方)def _download_20newsgroups(target_dir, cache_path):的函数,将这个红框里的注释掉(里边代码是下载的意思)

 

最后添加一行之前20news-bydate.tar.gz的地址,记得地址改成双斜杠!!!

最终去Pycharm里面调用即可,耐心等待,需要一会的时间,以后直接调用即可,文件会自动解压为默认路径的20news-bydate_py3.pzk文件(C:\Users\(自己的电脑名)\scikit_learn_data

调用fetch_20newsgroups的朴素贝叶斯算法

#朴素贝叶斯算法运用代码
from sklearn.model_selection import train_test_split
from sklearn.datasets import fetch_20newsgroups
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.naive_bayes import MultinomialNB

def nb_news():
    #用朴素贝叶斯算法对新闻进行划分
    #获取数据
    news = fetch_20newsgroups(subset='all')

    #划分数据集
    x_train, x_test, y_train, y_test = train_test_split(news.data, news.target)

    #特征工程:文本特征提取-tfidf
    transfer = TfidfVectorizer()
    x_train = transfer.fit_transform(x_train)
    x_test = transfer.transform(x_test)

    #朴素贝叶斯算法预估器流程
    estimatro = MultinomialNB()
    estimatro.fit(x_train, y_train)

    #模型评估
    # 方法1:直接比对真实值和预测值
    y_predict = estimatro.predict(x_test)
    print("y_predict\n", y_predict)
    print("直接比对真实值和预测值:\n", y_test == y_predict)

    # 方法2:计算准确值
    score = estimatro.score(x_test, y_test)
    print("准确率为\n", score)
    return None

if __name__=="__main__":
    nb_news()

### 使用 `fetch_20newsgroups` 下载数据集 `fetch_20newsgroups` 是 Scikit-learn 提供的一个函数,用于加载著名的 20 类新闻组数据集。该数据集包含了大约 20,000 封来自 20 个不同主题的新邮件消息[^3]。 #### 函数参数说明 `fetch_20newsgroups` 的主要参数如下: - **subset**: 可选值为 `'train'`, `'test'`, 或 `'all'`,分别表示只加载训练集、测试集或全部数据。 - **categories**: 如果只想加载特定类别,则可以指定一个列表来过滤数据。 - **shuffle**: 是否打乱数据顺序,默认为 True。 - **random_state**: 随机种子,当 shuffle=True 时有效。 - **remove**: 指定要移除的内容部分(如头部、脚注等),默认为空元组 ()。 #### 示例代码 以下是一个完整的示例代码,展示如何使用 `fetch_20newsgroups` 来下载并查看数据: ```python from sklearn.datasets import fetch_20newsgroups # 定义需要加载的子集和类别 subset = 'all' categories = None # 设置为 None 表示加载所有类别 # 调用 fetch_20newsgroups 方法 news = fetch_20newsgroups(subset=subset, categories=categories, shuffle=True, random_state=42) # 输出基本信息 print(f"数据集中共有 {len(news.data)} 条记录") print(f"数据集包含的类别数: {len(news.target_names)}") # 查看前几条样本及其对应的标签 for i in range(5): print(f"\n第 {i+1} 条样本:") print("内容:", news.data[i][:100], "...") # 截取部分内容显示 print("类别:", news.target_names[news.target[i]]) ``` 如果遇到下载速度过慢的情况,可以通过设置自定义缓存路径加速下载过程[^5]。例如修改 `archive_path` 参数指向本地存储位置。 #### 解决下载缓慢的方法 为了提高下载效率,建议预先手动下载压缩包文件到目标目录下,并调整程序配置使其识别新地址。具体做法参见上述提到的手动设定路径方式[^2]。 --- ### 数据预处理的重要性 在实际应用中,原始文本通常需要经过一系列清洗与转换步骤才能被算法接受作为输入特征向量[^4]。这一步骤可能涉及去除停用词、分词化、构建 TF-IDF 向量等形式的操作。 ---
评论 10
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值