自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 资源 (1)
  • 收藏
  • 关注

原创 sklearn 随机森林进行数据预测

数据集:​​​​​​https://download.youkuaiyun.com/download/SpecialRiot/85339262https://download.youkuaiyun.com/download/SpecialRiot/85339262根据上图的目录结构放置数据集后执行下面的代码。from sklearn.ensemble import RandomForestRegressorimport pandas as pdfrom sklearn.model_selection import .

2022-05-11 07:28:05 1925

原创 tensorflow2.8生成TFRecord 文件

tensorflow中文官网:关于TensorFlow | TensorFlow中文官网TFRecord 文件是一种用来存储一串二进制 blob 的简单格式。通过将多个示例打包进同一个文件内,使用TFRecord 文件可以使得数据信息得到复用。也可以提高性能。import pathlibimport tensorflow as tfdata_root = pathlib.Path("需要读取图片的根目录")all_image_paths = list(data_root.glob('*/*

2022-03-26 01:46:10 1337

原创 使用Python本地运行Spark获取中文文章词频TopN

1.环境准备在Windows下使用Pycharm运行Spark代码_SpecialRiot的博客-优快云博客2.代码实现分词使用的jieba分词框架,通过分词后进行wordCount操作再对value进行排序,截取前N个。from pyspark import SparkConf,SparkContextimport jiebadef main(sc): textFile = sc.textFile("./word.txt") #分词 一行变多行

2022-03-07 17:02:37 1733

原创 在Windows下使用Pycharm运行Spark代码

在Windows下使用Pycharm运行Spark代码

2022-03-07 14:34:27 3361 3

原创 基于Spark的中文文章词频统计

1.中文分词中文分词选用的是Ansj框架。分词部分使用Java语言封装,由Spark中的flatMap算子调用。分词后根据词性做了筛选。package com.ahn.spark;import org.ansj.domain.Result;import org.ansj.domain.Term;import org.ansj.splitWord.analysis.ToAnalysis;import java.util.*;public class AnsjTest {

2022-02-25 20:00:34 2355

变压器油温预测的数据集

变压器油温预测的数据集

2022-05-10

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除