audio event 实验中的weka交叉代码

本文介绍了一个使用Weka库实现的随机森林分类器示例,该示例加载了多个ARFF文件数据集,并进行了交叉验证评估。
import java.io.File;

import weka.classifiers.Classifier;
import weka.classifiers.Evaluation;
import weka.classifiers.trees.RandomForest;
import weka.core.Instance;
import weka.core.Instances;
import weka.core.converters.ArffLoader;

import java.util.*;

public class test {
	Vector<String> alllist=new Vector<String>();
	void getlist(){
		alllist.add("list/animal/cat.txt.arff");
		alllist.add("list/animal/dog.txt.arff");
		
		alllist.add("list/household/clock.txt.arff");
		alllist.add("list/household/door.txt.arff");
		
		alllist.add("list/musical+instruments/guitar.txt.arff");
		alllist.add("list/musical+instruments/trumpet.txt.arff");
		
		alllist.add("list/nature/thunder.txt.arff");
		alllist.add("list/nature/wind.txt.arff");
		
		alllist.add("list/office/coins.txt.arff");
		alllist.add("list/office/paper.txt.arff");
		
		alllist.add("list/people/applause.txt.arff");
		alllist.add("list/people/heartbeat.txt.arff");
		
		alllist.add("list/sports+and+recreation/bowling.txt.arff");
		alllist.add("list/sports+and+recreation/cards.txt.arff");
		
		alllist.add("list/vehicles/engine.txt.arff");
		alllist.add("list/vehicles/train.txt.arff");
	}
	Instances getallinstances(){
		this.getlist();
		Instances alldataset=null;
		for(int i=0;i<this.alllist.size();i++){
			String path=alllist.get(i);
			ArffLoader loader = new ArffLoader();
			Instances dataset=null;
			File file = new File(path);
			try{
				loader.setFile(file);
				System.out.println(path);
				dataset=loader.getDataSet();
				int numAttr=dataset.numAttributes();
				dataset.setClassIndex(numAttr-1);
				if(alldataset==null){
					alldataset=new Instances(dataset);
				}
				else{
					int num=dataset.numInstances();
					for(int j=0;j<num;j++){
						Instance instance=dataset.instance(j);
						alldataset.add(instance);
					}
				}
			}
			catch(Exception e){
				e.printStackTrace();
			}
		}
		return alldataset;
	}
	public static void main(String[] args) {
		test t=new test();
		 Instances dataset=null;
		 try{
			 dataset=t.getallinstances();
			 
			 int seed=5;
			 
			 int folds=5;
			 double errorRate=0;
			 double correRate=0;
			 Random rand=new Random(seed);
			 Instances randData=new Instances(dataset);
			 randData.randomize(rand);
			 for(int i=0;i<folds;i++){
				 
				 Instances traindata=randData.trainCV(folds, i);
				 Instances testdata=randData.testCV(folds, i);
				 System.out.println("train size is: "+traindata.numInstances());
				 //System.out.println("test size  is: "+testdata.numInstances());
				 Scanner scan=new Scanner(System.in);
				// scan.nextLine();
				 seed++;
				 /*
				 Classifier svm=new LibSVM();
				 svm.setOptions(weka.core.Utils.splitOptions("-S 0 -K 2 -D 3 -G 0.0 -R 0.0 -N 0.5 -M 40.0 -C 8.0 -E 0.004 -P 0.1 -seed 1"));
				 svm.buildClassifier(traindata);
				 Evaluation evaluation = new Evaluation(testdata);
				 evaluation.evaluateModel(svm,testdata );
				 errorRate+=evaluation.errorRate();
				 */
				 Classifier randforest=new RandomForest();
				 randforest.buildClassifier(traindata);
				 Evaluation evaluation = new Evaluation(testdata);
				 evaluation.evaluateModel(randforest,testdata );
				 //System.out.println("error rate is: "+evaluation.errorRate());
				 //System.out.println("precision rate is: "+evaluation.correct()/testdata.numInstances());
				 //scan.nextLine();
				 errorRate+=evaluation.errorRate();
				 correRate+=evaluation.correct()/testdata.numInstances();
				 double confusion[][]=evaluation.confusionMatrix();
				 System.out.println("confusion size is: "+confusion.length+" "+confusion[0].length);
				 for(int k=0;k<confusion.length;k++){
					 double []confu=confusion[k];
					 for(int kk=0;kk<confu.length;kk++){
						 System.out.print(confu[kk]+" ");
					 }
					 System.out.println();
				 }
				 scan.nextLine();
				 //confusion=confusion+confusion;
			 }
			 System.out.println("error rate is:"+errorRate/folds);
			 System.out.println("corre rate is:"+correRate/folds);
			 /*
			 int num=dataset.numAttributes();
			 for(int i=0;i<dataset.numInstances();i++){
				 Instance instance=dataset.instance(i);
				 System.out.println("class is: "+instance.toString(num-1));
			 }
			 System.out.println("number is: "+dataset.numInstances());
			 Classifier svm=new LibSVM();
			 svm.setOptions(weka.core.Utils.splitOptions("-S 0 -K 2 -D 3 -G 0.0 -R 0.0 -N 0.5 -M 40.0 -C 8.0 -E 0.004 -P 0.1 -seed 1"));
			 svm.buildClassifier(dataset);
			 Evaluation evaluation = new Evaluation(dataset);
			 evaluation.evaluateModel(svm, dataset);
			 System.out.println("error rate is: "+evaluation.errorRate());
			 
			 System.out.println(dataset.numInstances()+" "+evaluation.correct());
			 */
		 }
		 catch(Exception e){
			 e.printStackTrace();
		 }
	}
}

内容概要:本文介绍了ENVI Deep Learning V1.0的操作教程,重点讲解了如何利用ENVI软件进行深度学习模型的训练与应用,以实现遥感图像中特定目标(如集装箱)的自动提取。教程涵盖了从数据准备、标签图像创建、模型初始化与训练,到执行分类及结果优化的完整流程,并介绍了精度评价与通过ENVI Modeler实现一键化建模的方法。系统基于TensorFlow框架,采用ENVINet5(U-Net变体)架构,支持通过点、线、面ROI或分类图生成标签数据,适用于多/高光谱影像的单一类别特征提取。; 适合人群:具备遥感图像处理基础,熟悉ENVI软件操作,从事地理信息、测绘、环境监测等相关领域的技术人员或研究人员,尤其是希望将深度学习技术应用于遥感目标识别的初学者与实践者。; 使用场景及目标:①在遥感影像中自动识别和提取特定地物目标(如车辆、建筑、道路、集装箱等);②掌握ENVI环境下深度学习模型的训练流程与关键参数设置(如Patch Size、Epochs、Class Weight等);③通过模型调优与结果反馈提升分类精度,实现高效自动化信息提取。; 阅读建议:建议结合实际遥感项目边学边练,重点关注标签数据制作、模型参数配置与结果后处理环节,充分利用ENVI Modeler进行自动化建模与参数优化,同时注意软硬件环境(特别是NVIDIA GPU)的配置要求以保障训练效率。
内容概要:本文系统阐述了企业新闻发稿在生成式引擎优化(GEO)时代下的全渠道策略与效果评估体系,涵盖当前企业传播面临的预算、资源、内容与效果评估四大挑战,并深入分析2025年新闻发稿行业五大趋势,包括AI驱动的智能化转型、精准化传播、首发内容价值提升、内容资产化及数据可视化。文章重点解析央媒、地方官媒、综合门户和自媒体四类媒体资源的特性、传播优势与发稿策略,提出基于内容适配性、时间节奏、话题设计的策略制定方法,并构建涵盖品牌价值、销售转化与GEO优化的多维评估框架。此外,结合“传声港”工具实操指南,提供AI智能投放、效果监测、自媒体管理与舆情应对的全流程解决方案,并针对科技、消费、B2B、区域品牌四大行业推出定制化发稿方案。; 适合人群:企业市场/公关负责人、品牌传播管理者、数字营销从业者及中小企业决策者,具备一定媒体传播经验并希望提升发稿效率与ROI的专业人士。; 使用场景及目标:①制定科学的新闻发稿策略,实现从“流量思维”向“价值思维”转型;②构建央媒定调、门户扩散、自媒体互动的立体化传播矩阵;③利用AI工具实现精准投放与GEO优化,提升品牌在AI搜索中的权威性与可见性;④通过数据驱动评估体系量化品牌影响力与销售转化效果。; 阅读建议:建议结合文中提供的实操清单、案例分析与工具指南进行系统学习,重点关注媒体适配性策略与GEO评估指标,在实际发稿中分阶段试点“AI+全渠道”组合策略,并定期复盘优化,以实现品牌传播的长期复利效应。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值