- 博客(13)
- 收藏
- 关注
原创 VisualVM程序无法打开
JDK1.7版本之后VisualVM从JDK中移除,需要单独下载,但是下载之后发现不能使用,这个时候只需要把JDK文件夹下的jre放在另一个位置即可。
2024-07-16 21:57:18
572
原创 成功解决“ERROR: Could not build wheels for XXX, which is required to install pyproject.toml-based proje”
试了网上很多种方法,结果都存在问题,后面又看了这个错误,发现救赎之道就在其中!报错说需要装“pyproject.toml-based”
2024-01-22 14:40:13
98157
86
原创 conda 虚拟环境中,明明安装好pytorch,但是不能使用
然后再进入base环境,再在base下创建新的虚拟环境。但是经过我拆了装,装了拆的折腾后发现。必须要先退出base环境。具体啥原因不是很清楚。
2024-01-19 18:37:26
1055
原创 ERROR: Cannot determine archive format of /tmp/pip-install-pv8dc1li/segment-anything_e970cd46dd8f446
ubuntu使用git命令下载失败。
2024-01-12 19:15:28
498
原创 Ubuntu中显示yum命令找不到
看了几个博客都不咋对,后来发现ubuntu中用不了yum命令。把这个yum换成sudo apt就好了。Ubuntu中显示yum命令找不到。
2024-01-10 19:11:40
481
原创 配置单机版伪分布模式Hadoop
大家在做之前首先要通过docker进入fedora系统。具体步骤之前已经说过,这里就不在赘述。首先更正一下上篇出现的一个错误,Hadoop的环境变量文件中的JDK路径配置错误了,之前的错误已经更改。具体操作可以看上篇。改正之后是下面的图片。要查看系统中运行的java 进程,需要jps 命令,只有安装jdk 后才有它,所以,没有安装的记得安装一下。dnf install java-1.8.0-openjdk-devel下图是安装的过程。输入$ jps如果出现51 jps则正确。伪分布
2020-10-11 18:10:12
366
原创 Hadoop错误2_Hadoop伪分布式下,运行WordCount时,Input path does not exist错误解决办法
在运行wordcount这个实例时,总是出现错误,看了好多办法都没有解决问题。最后问了老师,老师给出了原因以及解决办法。执行失败的原因是缺少find命令话不多说,非常简单,直接安装一个命令即可。安装:dnf install findutils之后就可以了。前提是core-site.xml、hdfs-site.xml环境变量都修改完成且正确的条件下。在安装完这个命令后,需要再一次格式化。注意!!!格式化的时候记得把hdfs下的namenode和datanode全部删除,不要保留。格式化以
2020-09-26 15:43:15
1709
原创 如何在家庭版Windows下安装docker并且配置独立模式的Hadoop(Linux系统也可参考)
在家庭Windows下安装docker1.下载Docker在学习Hadoop时,要用到docker,但是docker只能在在专业版或者企业版的电脑运行,所以这里找了一种方法,可以在家庭版上安装docker。这里以win10系统为例:首先安装docker toolbox。网址:http://mirrors.aliyun.com/docker-toolbox/windows/docker-toolbox/Docker的有CE和EE版,CE为免费版2.改变安装docker下载下来docker to
2020-09-08 13:39:10
1555
原创 python实现词云(爬取豆瓣影评)
该程序是学完python之后的一个实战项目,通过分析网站的html,来爬取影评,并将其做成词云。本程序主要分为3个过程。1、抓取网页数据使用Python爬虫技术获取豆瓣电影中最新上映电影的网页,其网址如下:https://movie.douban.com/cinema/nowplaying/qingdao/2、清理数据通常将某部影评信息存入eachCommentList列表中。为便于数据清理和词频统计,把eachCommentList列表形成字符串comments,将comments字符串中的“
2020-09-08 12:37:00
2208
2
原创 python爬虫实验——爬取网页图片+网页源代码
爬虫图片本实验将利用python程序抓取网络图片,完成可以批量下载一个网站的照片。所谓网页抓取,就是把URL地址中指定的网络资源从网络流中读取出来,保存到本地。原理1、网络爬虫即Web Spider,网络蜘蛛是通过网页的链接地址来寻找网页的。从网站某一个页面(通常是首页)开始,读取网页的内容,找到在网页中的其它链接地址,然后通过这些链接地址寻找下一个网页,这样一直循环下去,直到把这个网站所有的网页都抓取完为止。网络爬虫的基本操作是抓取网页。2、浏览网页过程抓取网页的过程其实和读者平时使用浏览
2020-07-07 17:04:14
11743
13
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人