java实现随机森林RandomForest的示例代码
随机森林是由多棵树组成的分类或回归方法。主要思想来源于Bagging算法,Bagging技术思想主要是给定一弱分类器及训练集,让该学习算法训练多轮,每轮的训练集由原始训练集中有放回的随机抽取,大小一般跟原始训练集相当,这样依次训练多个弱分类器,最终的分类由这些弱分类器组合,对于分类问题一般采用多数投票法,对于回归问题一般采用简单平均法。随机森林在bagging的基础上,每个弱分类器都是决策树,决策树的生成过程中中,在属性的选择上增加了依一定概率选择属性,在这些属性中选择最佳属性及分割点,传统做法一般是全部属性中去选择最佳属性,这样随机森林有了样本选择的随机性,属性选择的随机性,这样一来增加了每个分类器的差异性、不稳定性及一定程度上避免每个分类器的过拟合(一般决策树有过拟合现象),由此组合分类器增加了最终的泛化能力。下面是代码的简单实现
/**
*随机森林回归问题
*@authorysh1208706282
*
*/
publicclassRandomForest{
ListmSamples;
ListmCarts;
doublemFeatureRate;
intmMaxDepth;
intmMinLeaf;
RandommRandom;
/**
*加载数据回归树
*@parampath
*@paramregex
*@throwsException
*/
publicvoidloadData(Stringpath,Stringregex)throwsException{
mSamples=newArrayList();
BufferedReaderreader=newBufferedReader(newFileReader(path));
Stringline=null;
Stringsplits[]=null;
Samplesample=null;
while(null!=(line=reader.readLine())){
splits=line.split(regex);
sample=newSample();
sample.label=Double.valueOf(splits[0]);
sample.feature=newArrayList(splits.length-1);
for(inti=0;i(iters);
Cartcart=null;
for(intiter=0;iters=newArrayList(mSamples.size());
for(inti=0;isamples=Cart.loadTestData("F:/2016-contest/20161001/valid_data_1.csv",true,",");
doublesum=0;
for(Samples:samples){
doubleval=forest.classify(s);
sum+=(val-s.label)*(val-s.label);
System.out.println(val+""+s.label);
}
System.out.println(sum/samples.size()+""+sum);
System.out.println(System.currentTimeMillis());
}
}
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持毛票票。