dividedata.R-20170830

本文通过使用caret库创建数据分区,对比了线性模型和SVM在预测任务上的表现,详细记录了误差率和p值,展示了如何进行有效的模型选择。
#data=cbind(ypart,xcovpart2)
#sample(2, nrow(data), replace=T, prob=c(0.7,0.3))
library(caret) 

data=as.matrix(oadata)
colnames(data)=c('y','x1','x2','x17',paste("x",3:16,sep=""))

c=5000 #验证c次
set.seed(5000)
r1=matrix(0,c,1)
r2=matrix(0,c,1)
r1_c=matrix(0,c,1)
r2_c=matrix(0,c,1)
p1=matrix(0,12,c)
p1_c=matrix(0,12,c)

for (k in 1:c) {
index <-createDataPartition(data[,1], time=1, p=0.8, list=F)
# if (table(test[,5])>0 && table(test[,6])>0 && table(test[,7])>0 && table(test[,8])>0 &&
#     table(test[,9])>0 && table(test[,10])>0 && table(test[,11])>0 && table(test[,12])>0 &&
#     table(test[,13])>0 && table(test[,14])>0 && table(test[,15])>0 && table(test[,16])>0 &&
#     table(test[,17])>0 && table(test[,18])>0 && table(train[,5])>0 && table(train[,6])>0 && 
#    table(train[,7])>0 && table(train[,8])>0 && table(train[,9])>0 && table(train[,10])>0 && 
#    table(train[,11])>0 && table(train[,12])>0 && table(train[,13])>0 && table(train[,14])>0 && 
#    table(train[,15])>0 && table(train[,16])>0 && table(train[,17])>0 && table(train[,18])>0)
#   { 
#     print(k)
  train=data[index, ]
  test=data[-index, ]
#print(nrow(train))
#print(nrow(test))
colnames(train)=c('y','x1','x2','x17',paste("x",3:16,sep=""))
colnames(test)=c('y','x1','x2','x17',paste("x",3:16,sep=""))
#assign(paste("train",k,sep=""),data[index, ])
#assign(paste("test",k,sep=""),data[-index, ])

a.lm = lm(y~0+x1+x2+x17
          +as.factor(x3)
          +as.factor(x4)
          +as.factor(x5)
          #+as.factor(x6)
          #+as.factor(x7)
          +as.factor(x8)
          #+as.factor(x9)
          +as.factor(x10)
          #+as.factor(x11)
          +as.factor(x12)
          +as.factor(x13)
          #+as.factor(x14)
          +as.factor(x15)
          #+as.factor(x16)
          ,data=data.frame(train)) #train集构造anova模型,删去x6,x16
#assign(paste("a.lm",k,sep=""),a.lm) #记为ak
#summary(a.lm)
#assign(paste("beta",k,sep=""),data.matrix(coef(a.lm))) #系数betak
ytest=predict(aov(a.lm),data.frame(test[,2:18])) 
#assign(paste("ytest",k,sep=""),ytest) #test集预测结果ytestk
resi1=abs(ytest-test[,1])/test[,1]
r1[k]=mean(resi1) #误差r1(k)
#print(mean(resi1))
p1[,k]=Anova(a.lm,singular.ok = TRUE,type="III")$Pr #p-value
}

# #交叉验证
# a_c.lm = lm(y~0+x1+x2+x17+as.factor(x3)+as.factor(x4)+as.factor(x5)#+as.factor(x6)
#             +as.factor(x7)
#             +as.factor(x8)
#             +as.factor(x9)
#             +as.factor(x10)
#             +as.factor(x11)
#             +as.factor(x12)+as.factor(x13)
#             +as.factor(x14)
#             +as.factor(x15)
#             #+as.factor(x16)
#             ,data=data.frame(test))
# #assign(paste("a_c.lm",k,sep=""),a_c.lm)
# #summary(a_c.lm)
# #assign(paste("beta2_",k,sep=""),data.matrix(coef(a_c.lm))) #系数beta2_k
# ytrain=predict(a_c.lm,data.frame(train[,2:18]))
# #assign(paste("ytrain",k,sep=""),ytrain)
# resi1_c=abs(ytrain-train[,1])/train[,1]
# r1_c[k]=mean(resi1_c) #误差
# #print(mean(r1_c))
# p1_c[,k]=Anova(a_c.lm,singular.ok = TRUE,type="III")$Pr #p-value
# }

m<-svm(train[,2:18],train[,1])
#assign(paste("m",k,sep=""),m)
#summary(m)
ytest2=predict(m,test[,2:18])
#assign(paste("ytest2_",k,sep=""),ytest2)
resi2=abs(ytest2-test[,1])/test[,1]
r2[k]=mean(resi2) #误差
#print(mean(resi2))

# #交叉验证
# m_c<-svm(test[,2:18],test[,1])
# #assign(paste("m_c",k,sep=""),m_c)
# #summary(m_c)
# ytrain2=predict(m_c,train[,2:18])
# #assign(paste("ytrain2_",k,sep=""),ytrain2)
# resi2_c=abs(ytrain2-train[,1])/train[,1]
# r2_c[k]=mean(resi2_c) #误差
# #print(mean(resi2_c))



mean(r1)
#mean(r1_c)
mean(r2)
#mean(r2_c)
#rowMeans(p1)
#rowMeans(p1_c)

# library(ISLR)
# library(caret)
# data(Wage)
# Wage<- subset(Wage,select=-c(logwage))
# #Split the data
# inBuild<- createDataPartition(y=Wage$wage,p=0.7,list=FALSE)
# validation<- Wage[inBuild,]
# buildData<- Wage[-inBuild,]
# inTrain<- createDataPartition(y=buildData$wage,p=0.7,list=FALSE)
# training<- buildData[inTrain,]
# testing<- buildData[-inTrain,]
# mod1<- train(wage~.,method="glm",data=training)
# mod2<- train(wage~.,method="rf",data=training,trcontrol=trainControl(method="CV"),number=3)
# pred1<- predict(mod1,testing)
# pred2<- predict(mod2,testing)
# qplot(pred1,pred2,col=wage,data=testing)
#随机森林
# mod2<- train(y~.,method="rf",data=train,trcontrol=trainControl(method="CV"),number=3)
# pred2<- predict(mod2,test)
# print(mean(abs(predict(mod2,data.frame(test[,2:18]))-test[,1])/test[,1]))

 

源码来自:https://pan.quark.cn/s/a4b39357ea24 《C++ Primer》作为C++编程领域中的一部权威著作,主要服务于初学者和经验丰富的开发者,致力于帮助他们深入掌握C++的核心知识。 第一章通常会详细讲解C++语言的基础概念和语法结构,包括变量的使用、数据类型的分类、常量的定义、运算符的应用以及基础的输入输出操作。 接下来,我们将对这一章中的核心知识点和可能的习题解答进行深入分析。 ### 1. 变量与数据类型在C++编程中,变量被视为存储数据的媒介。 每一个变量都必须预先声明其数据类型,常见的数据类型有整型(int)、浮点型(float)、双精度浮点型(double)以及字符型(char)。 例如:```cppint age = 25; // 声明一个整型变量age并赋予其初始值25float weight = 70.5f; // 声明一个浮点型变量weight并赋予其初始值70.5char grade = A; // 声明一个字符型变量grade并赋予其初始值A```### 2. 常量与字面量常量指的是不可更改的值,可以通过`const`关键字进行声明。 例如:```cppconst int MAX_SIZE = 100; // 声明一个整型常量MAX_SIZE,其值为100```字面量是指程序中直接书写的值,如`42`、`3.14`或`"Hello"`。 ### 3. 运算符C++提供了多种运算符,涵盖了算术运算符(+,-,*,/,%)、比较运算符(==,!=,<,>,<=,>=)、逻辑运算符(&&,||,!)以及赋值运算符(=,+=,-=,*=,/=,%=)等。 ### 4. 输入与输出在C++中,使用`std::cin`来实现输...
内容概要:本文详细介绍了一个基于C++的仓库存储管理系统的设计与实现,涵盖了项目背景、目标、挑战及解决方案,并系统阐述了整体架构设计、数据库建模、功能模块划分、权限安全、并发控制、数据一致性保障、异常处理与可扩展性等关键内容。通过面向对象编程思想,采用分层架构与模块化解耦设计,结合STL容器、多线程、锁机制等C++核心技术,实现了高效的库存管理功能,包括入库、出库、盘点、调拨、权限控制、日志追踪与智能报表分析。文中还提供了核心类如Inventory(库存)、User(用户权限)、LogEntry(操作日志)及WarehouseManager(主控制器)的代码示例,展示了数据结构设计与关键算法逻辑。; 适合人群:具备C++编程基础,熟悉面向对象设计与基本数据结构的软件开发人员,尤其适合从事企业级管理系统开发或希望深入理解系统架构设计的中级开发者(工作1-3年);也适用于计算机相关专业学生进行课程设计或毕业项目参考; 使用场景及目标:①学习如何使用C++构建复杂业务系统的整体架构与模块划分方法;②掌握高并发、数据一致性、权限控制、异常处理等企业级系统关键技术的实现思路;③理解仓储管理业务流程及其在软件系统中的建模与落地方式;④为开发类似ERP、MES等后台管理系统提供技术原型与设计参考; 阅读建议:此资源不仅提供理论架构与代码片段,更强调系统设计的完整性与工程实践性。建议读者结合代码示例动手实现核心模块,深入理解类之间的关系与交互逻辑,重点关注多线程安全、事务管理与权限校验等难点环节,并尝试扩展功能如对接GUI界面或数据库持久化模块,以全面提升系统开发能力。
农作物叶子健康与疾病实例分割数据集 一、基础信息 数据集名称:农作物叶子健康与疾病实例分割数据集 图片数量: - 训练集:7,446张图片 - 验证集:970张图片 - 测试集:182张图片 - 总计:8,598张图片 分类类别: - Apple Healthy(健康苹果叶) - Apple Rust Leaf(苹果锈病叶) - Apple Scab Leaf(苹果黑星病叶) - BellPepper Healthy(健康甜椒叶) - BellPepper Leaf Spot(甜椒叶斑病) - Corn Gray Leaf Spot(玉米灰斑病) - Corn Leaf Blight(玉米叶枯病) - Corn Rust Leaf(玉米锈病叶) - Grape Black Rot(葡萄黑腐病) - Grape Healthy(健康葡萄叶) - Squash Powdery Leaf(南瓜白粉病叶) - Tomato Bacterial Spot(番茄细菌性斑点病) - Tomato Healthy(健康番茄叶) - Tomato Septoria(番茄斑枯病) 标注格式:YOLO格式,包含实例分割的多边形标注,适用于实例分割任务。 数据格式:图片来源于农业图像数据库,细节清晰。 二、适用场景 农业植物疾病AI检测系统开发:数据集支持实例分割任务,帮助构建能够自动识别植物叶子疾病区域并分类的AI模型,辅助农民快速诊断和治理。 精准农业应用研发:集成至农业智能管理系统中,提供实时疾病识别功能,为农作物健康管理提供决策支持。 学术研究与创新:支持农业科学与人工智能交叉领域的研究,助力发表高水平农业AI论文。 农业教育与培训:数据集可用于农业院校或培训机构,作为学生学习植物疾病分类和诊断的重要资源。 三、数据集优势 精准标注与多样性:每张图片均经过准确标注,确保疾病区域分割精确。包
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值