- 博客(80)
- 资源 (10)
- 收藏
- 关注
原创 YOLOV5 TensorRT部署 BatchedNMS(engine模型推理)(下)
主要是在王新宇代码的基础上改进,引入对BatchedNMS的解码。
2024-04-25 15:50:23
413
原创 YOLOV5 TensorRT部署 BatchedNMS(转换engine模型)(上)
yolov5 tensorrt部署时引入nms plugin,nms在cuda上执行,减少内存拷贝和运行时间
2024-04-23 15:11:55
506
1
原创 yolov5 obb旋转框 tensorrt部署
yolov5-obb tensorRT部署代码结合王新宇和fish-kong两者的代码,可以多batch批量检测旋转框。等待生成engine文件。执行完毕生成推理结果。
2023-11-06 18:40:40
717
原创 计算机类论文辅导(SCI写作和投稿),毕设辅导,竞赛辅导,升学材料润色
我们的团队由经验丰富的竞赛导师组成,他们将与您合作,提供技巧、策略和项目指导,帮助您在竞争激烈的环境中脱颖而出。从数据准备到模型训练,从调优到结果评估,我们将为您提供一流的技术支持,确保您的项目取得令人满意的成果。从选题到论文结构,从文献综述到数据分析,我们将为您提供个性化的支持,确保您的论文在同行中脱颖而出。我们的专业导师将与您合作,从论文选题、研究方法到结果分析和写作技巧,为您提供系统化的辅导,确保您顺利完成毕业论文,达到优秀的水平。联系我们,一起创造未来!- 让你的申请脱颖而出,获得梦校的青睐。
2023-09-26 10:14:55
463
4
原创 yolov5使用最新MPDIOU损失函数,有效和准确的边界盒回归的损失,优于GIoU/EIoU/CIoU/EIoU(附代码可用)
MPDIOU 能够有效解决重叠和包含问题,并且能够有效地处理预测框和目标框长宽比相同的情况,而且计算量小,模型训练速度快。在数据集上测试和验证,发现能够提升训练精度,并且有效地区分两个目标存在包含的关系的预测框回归,推荐大家使用MPDIOU 进行训练。
2023-09-18 19:01:20
2651
原创 利用pycocotools库计算MAP:生成coco格式 json文件数据集和计算map值
在目标检测任务中,需要通过Map指标判断模型的精度。为了测试engine文件推理结果的精度,本文介绍了如何使用pycocotools库计算Map,在此之前需要根据coco格式生成json文件。
2023-05-29 16:24:12
1804
原创 yolov5 批量修改labelimg标注xml文件内容(python版本)
半自动打标签只能将所有图片都归为一个类别,后期如果想要修改类别可以一键修改,避免从labelimg中逐一修改。yolov5训练自定义数据集时,需要对半自动打标签的xml文件中的类别进行批量修改。
2023-05-04 13:45:27
1156
原创 yolov5半自动打标签(opencv版本),识别目标画框并将坐标信息保存在xml中
yolov5训练数据集时,需要对数据进行打标签,可以通过两种方法进行半自动化打标签。
2023-04-26 14:47:28
1728
原创 yolov5训练自己的数据集,xml转txt以及划分数据集(更新xml转txt时统计类别名称和个数)
yolov5训练自己的数据集,xml转txt以及划分数据集。
2023-02-20 18:56:09
1992
原创 python根据yolov5输出的label txt文件,批量截取目标框图片并保存
python根据yolov5检测得到的txt文件,截取目标框图片并保存。
2022-10-27 16:09:49
4308
7
原创 大数据实战电商推荐系统(6)- 基于物品的协同过滤相似推荐(Item-CF算法)
文章目录1. 基于物品的协同过滤(Item-CF)2. 代码3. 结果展示数据获取和处理以及环境的配置详见上一篇文章: https://blog.youkuaiyun.com/qq_42754919/article/details/119679441基于物品的协同过滤(Item-CF),只需收集用户的常规行为数据(比如点击、收藏、购买)就可以得到商品间的相似度,在实际项目中应用很广。1. 基于物品的协同过滤(Item-CF)基于物品的协同过滤(Item-CF)主要思想:对于同一个用户购买的不同商品内部应该存在某
2021-08-14 21:01:21
996
1
原创 大数据实战电商推荐系统(5)- 基于内容的相似商品推荐(TF-IDF算法)
文章目录1.TD-IDF介绍2. 算法数据获取和处理以及环境的配置详见上一篇文章: https://blog.youkuaiyun.com/qq_42754919/article/details/119606604?spm=1001.2014.3001.5501每个商品都有标签,标签可以大致的概括商品的特征,但是并不是所有的标签对商品的特征影响性大。因此本文首先使用TD-IDF算法计算每个标签对商品的权重,将最终计算出的特征值转化为稀疏向量,利用余弦相似度计算两个商品之间的相似程度,用于推荐相似的商品。1.TD-
2021-08-13 19:57:12
1665
原创 大数据实战电商推荐系统(4)- 实时推荐服务根据最新评价商品推荐相似商品
文章目录1.创建文件+配置文件2. 模型+算法3.结果展示数据获取和处理详见上一篇文章:https://blog.youkuaiyun.com/qq_42754919/article/details/119545130这一节主要介绍实时推荐系统服务,根据当前用户最新的商品评价,推荐出相似度接近的商品,并根据当前用户之前评价的商品,计算每个推荐商品和之前评价商品之间的相似度,从高到低将备选商品推荐给当前用户。1.创建文件+配置文件pom.xml文件<?xml version="1.0" encodi
2021-08-11 15:30:41
1569
1
原创 大数据实战电商推荐系统(3)-基于隐语义模型的离线推荐模块
文章目录1.创建文件+配置文件2. 模型+算法2.1 隐语义模型2.2 商品相似度矩阵2.3 算法3. 模型调参数据获取和处理详见上一篇文章:https://blog.youkuaiyun.com/qq_42754919/article/details/119493103这一节主要介绍基于隐语义模型的协同过滤推荐算法,根据用户评价商品计算用户和商品之间的关系。最后生成用户推荐商品列表和商品相似度列表。1.创建文件+配置文件<?xml version="1.0" encoding="UTF-8"?>
2021-08-09 20:08:25
621
原创 大数据实战电商推荐系统(2)-离线统计服务(统计历史热门商品,近期热门商品,优质商品)
文章目录1. 创建文件+配置文件2.代码3.结果展示1. 创建文件+配置文件StatisticsRecommender下的pom.xml配置如下:<?xml version="1.0" encoding="UTF-8"?><project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:sche
2021-08-07 21:43:56
629
1
原创 大数据实战电商推荐系统(1)-数据加载和存储
文章目录1. 创建文件+配置文件2.代码3.结果展示数据集:链接:https://pan.baidu.com/s/1PbHV-pq_fF-ltQhj6yh5Hw提取码:q0bv1. 创建文件+配置文件具体的文件创建操作不再展示,最终创建文件如下:在这里插入图片描述ECommerceRecommendSystem下的pom.xml配置如下:<?xml version="1.0" encoding="UTF-8"?><project xmlns="http://maven.
2021-08-07 20:50:49
737
原创 本地代码上传到Github中
我们使用git需要先安装git工具,这里给出下载地址,下载后一路直接安装即可:https://git-for-windows.github.io/1.创建项目进入GitHub网站创建项目,输入项目名称,然后点击create repository2.上传代码在待上传文件夹下右键选择Git Bash Here输出git init 初始化git add .(后面还有一个点),将所有文件加入待上传,警告可以忽略输入git remote add origin path (Path为你创建的项目
2021-07-22 16:23:53
117
原创 大数据Spark案例实操3–统计电商网站的用户行为页面单跳转换率统计
文章目录1.数据准备和分析2.需求说明3.代码1.数据准备和分析参考上篇博客https://blog.youkuaiyun.com/qq_42754919/article/details/1180710492.需求说明计算页面单跳转化率,什么是页面单跳转换率,比如一个用户在一次 Session 过程中访问的页面路径 3,5,7,9,10,21,那么页面 3 跳到页面 5 叫一次单跳,7-9 也叫一次单跳,那么单跳转化率就是要统计页面点击的概率。分析如下:页面是指同一个sessionID,在一个连续的
2021-06-22 22:06:45
739
2
原创 大数据Spark案例实操2–统计电商网站的用户行为每个品类的 Top10 活跃 Session 统计
文章目录1.数据准备和分析2.需求分析3.代码1.数据准备和分析参考上篇博客https://blog.youkuaiyun.com/qq_42754919/article/details/1180710492.需求分析在需求一的基础上,增加每个品类用户 session 的点击统计首先Top10活跃session统计必须要属于Top10热门品类session统计意思是用户对某页面点击量输出top10热门品类中按用户点击次数最多排序3.代码统计Top10热门品类分析和代码见另一个博客https:/
2021-06-22 20:19:35
486
1
原创 大数据Spark案例实操1–统计电商网站的用户行为数据Top10 热门品类(三种方法)
文章目录1.准备数据2. 需求分析3.代码-方法11.准备数据链接:https://pan.baidu.com/s/14RxFpmXun7Wj-unDUvjyVg提取码:mjk6上面的数据图是从数据文件中截取的一部分内容,表示为电商网站的用户行为数据,主要包含用户的 4 种行为:搜索,点击,下单,支付。数据规则如下::数据以_(下划线)为分隔符每一行数据表示用户的一次行为,这个行为只能是上诉 4 种行为的一种如果搜索关键字为 null,表示数据不是搜索数据针对于下单行为,一次可以下单多
2021-06-20 17:09:58
1875
7
原创 大数据Spark入门案例5–统计广告点击数量排行Top3(scala版本)
大数据Spark入门案例5–统计每广告点击数量排行Top3(scala版本)1 数据准备链接:https://pan.baidu.com/s/1afzmL-hNsAJl1_gx_dH2ag提取码:yybiagent.log:时间戳,省份,城市,用户,广告,中间字段使用空格分隔。2 需求分析统计出每一个省份每个广告被点击数量排行的 Top3首先将获取的数据进行切分,挑选需要的参数:省份+广告以省份和广告位为key,统计当前省份当前广告观看次数sum按省份进行分类排序输出top3数据
2021-06-16 14:53:35
1985
原创 大数据Spark入门案例4–RDD 转换算子Key-Value类型(scala版本)
大数据Spark入门案例43–RDD 转换算子Key-Value类型(scala版本)文章目录1.1 partitionBy()1.2 reduceByKey()1.3 groupByKey()1.4 groupByKey(K)(A,B)1.5 foldByKey(K)(A)1.6 combineByKey(A,B,C)1.1 partitionBy()将数据按照指定类型重新进行分区,Spark 默认的分区器是 HashPartitioner//将三个分区数据按照HashPartitioner分
2021-06-16 10:00:06
439
原创 大数据Spark入门案例3–RDD 转换算子Value类型(scala版本)
大数据Spark入门案例3–RDD 转换算子(scala版本)文章目录1.1 map()1.2 mapPartitions()1.3mapPartitionsWithIndex()1.4 flatMap()1.5 glom()1.6 groupBy()1.7 filter()1.7 distinct(num)1.8 coalesce()+repartition()1.9 sortBy(A,B)1.1 map()将处理的数据逐条进行映射转换,这里的转换可以是类型的转换,也可以是值的转换。val r
2021-06-15 09:49:23
565
1
原创 大数据Spark入门案例2–读文件+分区(python+scala版本)
大数据Spark入门案例2–读文件+分区(python+scala版本)文章目录1.读文件1.scala版本1.1从内存中创建RDD2.从外部存储(文件)创建 RDD2.python版本2.分区1.scala版本2.python版本1.读文件1.scala版本1.1从内存中创建RDD从集合中创建 RDD,Spark 主要提供了两个方法:parallelize 和 makeRDD。从内存中创建数列集合。parallelize()makeRDD()package com.root.RDDi
2021-06-09 15:14:10
512
3
原创 大数据Spark入门案例1–wordcount(python+scala版本)
大数据Spark入门案例1–wordcount(python+scala版本)文章目录1.Scala版本1.Scala版本使用IDEA软件,导入spark和scala依赖和包,本文已经搭建完毕。创建Maven工程,然后创建scala文件。
2021-06-06 21:40:13
454
2
原创 大数据hadoop入门案例6–Yarn常用命令和参数配置
大数据hadoop入门案例6–Yarn常用命令1.列出所有 Applicationyarn application -list2. 根据 Application 状态过滤:(所有状态:ALL、NEW、NEW_SAVING、SUBMITTED、ACCEPTED、RUNNING、FINISHED、FAILED、KILLED)yarn application -list -appStates ALL(状态)3. Kill 掉 Applicationyarn application -kill a
2021-06-02 15:13:08
534
原创 大数据hadoop入门案例5–Reducer阶段join和Map阶段join
大数据hadoop入门案例4–join应用此博客作为本文学习hadoop大数据内容,内容可能存在不够全面或者存在偏差。文章目录1.Reduce Join1.1FlowBean1.2Mapper1.3Reducer1.4Driver1.5输入和输出2.Mapper Join2.1Mapper2.2Driver1.Reduce Join1.1FlowBean将参数序列化存储在内存中。package com.root.jointable;import org.apache.hadoop.io.Wr
2021-05-29 11:22:58
224
原创 大数据hadoop入门案例4–OutputFormat接口输出不同文件中
大数据hadoop入门案例4–OutputFormat接口输出不同文件中此博客作为本文学习hadoop大数据内容,内容可能存在不够全面或者存在偏差。文章目录1.OutputFormat2.代码2.1Mapper2.2Reducer2.3OutputFormat2.4LogLogRecordWriter2.5Driver3.输入+输出3.1输入3.2输出1.OutputFormatMapReducer有默认的文件输出流,但是当需要根据输入内容输出到不同的文件中,需要重新编写OutputFormat。
2021-05-28 11:12:23
257
原创 大数据hadoop入门案例3--对手机号码排序
大数据hadoop入门案例–对手机号码排序文章目录1.排序2.代码2.1FlowBean 序列化代码2.2Mapper代码2.3Reducer代码2.4Driver代码3.输入和输出3.1输入3.2输出4.分区并排序4.1 输出1.排序MapTask和ReduceTask均会对数据按 照key进行排序。因此在实现排序任务时,需要将排序数据传入Key中。默认排序是按照字典顺序排序,且实现该排序的方法是快速排序。1.部分排序:MapReduce根据输入记录的键对数据集排序。保证输出的每个文件内部有序
2021-05-27 09:57:55
496
1
原创 大数据hadoop入门案例2--对手机号码序列化+切片+分区
大数据hadoop入门案例–序列化+分区+排序此博客作为本文学习hadoop大数据内容,内容可能存在不够全面或者存在偏差。文章目录1.定义2.代码2.1FlowBean 序列化代码2.2Partitioner分区代码2.3Mapper代码2.4Reducer代码2.4Driver代码3.输入,输出3.1输入数据3.2输出1.定义1.序列化:将内存中的对象转化为字节序列以便存储到磁盘和网络传输。2.反序列化:将收到的字节序列或磁盘的持久化数据转换为内存中的对象。3.切片:在逻辑上将数据分
2021-05-26 10:29:25
633
原创 大数据hadoop入门示例1-WordCount
Hadoop入门案例–实现WordCount文章目录1.环境配置1.1 pom.xml文件2.resources文件2.创建运行文件2.1创建工程2.2 创建Mapper2.3创建Reducer文件2.4创建Driver3 输入和输出4.1.环境配置1.1 pom.xml文件在maven工程里导入hadoop包,hadoop版本应该和window环境下配置的hadoop环境保持一致。<dependencies> <dependency>
2021-05-25 09:51:25
325
3
原创 An error occurred while calling z:org.apache.spark.api.python.PythonRDD.collectAndServe.
文章目录1.解决问题2.创建文件夹3.上传文件到指定文件夹1.解决问题一开始在本地读取HDFS内的文件,使用下面代码一直报错,翻了很多优快云博客,配置环境和降低版本都无法解决。from pyspark import SparkContextsc=SparkContext()rdd1=sc.textFile("/test/food.txt")result=rdd1.collect()print(result)后面在别人的博客中发现textFile读取文件时路径存在问题,更改如下:fro
2020-11-02 21:55:52
12353
原创 windows安装Spark3.0.0+hadoop+JDK大数据开发平台
文章目录1.安装Java/Jdk2.Hadoop安装3.安装spark最近打算学习大数据,需要用到spark开放平台,根据优快云攻略和自己实际遇到的问题进行修改。从安装JDK到Hadoop和Spark。1.安装Java/Jdk根据自己的电脑安装对应的版本,这里选择安装window64位jdk下载地址:https://www.oracle.com/java/technologies/javase/javase-jdk8-downloads.html下载完毕安装即可,记住自己的安装路径,后面需要
2020-10-31 16:31:05
2197
原创 爬虫(13)-爬虫爬取CVPR+ICCV+ECCV期刊论文自动下载PDF保存文件中(科研党福利)
文章目录1.分析网页2.分析ECCV期刊页面3.爬取ECCV期刊代码4.爬取ICCV期刊代码5.爬取CVPR期刊代码6.结果展示最近导师叫我下载CVPR,ICCV,ECCV会议论文,发现每个期刊都有好几百篇论文。一个一个点击非常耗费时间,正好在学习爬虫,利用爬虫抓取一下网页。完成老师分配的任务之后将这个代码分享出来,供大家使用和学习,解决下载论文的烦恼。毕竟科技的进步就是使人懒惰,哈哈哈运行速度和每个人的网速有关,可以先在浏览器中下载一个论文,测一下网速,网速慢的话建议搭载VPN,也有部分论文内存很大
2020-10-29 11:12:01
3035
4
原创 爬虫(12)-爬虫爬取安居客二手房和新房信息
文章目录1.页面分析2.代码3.结果展示本文主要讲解爬取安居客买房类别中的二手房和新房,将提取的信息存储在记事本中,也可以转存CSV格式或者MongoDB中。网站HTML信息提取比较简单,没有什么特别的地方,作为爬虫入门可以让初学者快速了解爬虫方法。认为有用的话请点赞,码字不易,谢谢。其他爬虫实战请查看:https://blog.youkuaiyun.com/qq_42754919/category_10354544.html1.页面分析我们从网站的主页面开始提取网站信息,一直到最后具体的房产信息。以二手
2020-10-22 19:35:39
2347
3
原创 爬虫(11)-爬虫爬取天天基金网基金排行
文章目录1.网址分析2.网页信息分析3.代码4.结果展示优快云上大部分爬取天天基金的博客都失效或者无法有效爬取信息,本文可以有效抓取网页上的信息。认为有用的话请点赞,码字不易,谢谢。其他爬虫实战请查看:添加链接描述本文以天天基金网为例,爬取网站上的基金排行并存储在本地记事本中和MongoDB数据库中。网址:http://fund.eastmoney.com/data/fundranking.html#tall;c0;r;szzf;pn501.网址分析打开网页我们看到每页最多显示50个基金信息
2020-10-15 15:58:12
2672
7
原创 爬虫(10)-爬虫以json,csv和txt方式存储文件
文章目录1.json存储/读取文件2.csv存储/读取文件3.txt存储/读取文件本文介绍了爬虫中使用存储文件格式为json,csv和txt形式,此外还介绍如何从这个形式中读取文件。其他爬虫实战请查看:https://blog.youkuaiyun.com/qq_42754919/category_10354544.html觉得有用请点赞,谢谢。1.json存储/读取文件import json,csvdata=[{'name':'li','age':'18'}]with open('data.json',
2020-10-14 10:08:35
399
1
Rain12600.zip
2020-06-30
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人