当前位置: 首页>>代码示例>>Python>>正文


Python RandomForestClassifier.C方法代码示例

本文整理汇总了Python中sklearn.ensemble.RandomForestClassifier.C方法的典型用法代码示例。如果您正苦于以下问题:Python RandomForestClassifier.C方法的具体用法?Python RandomForestClassifier.C怎么用?Python RandomForestClassifier.C使用的例子?那么恭喜您, 这里精选的方法代码示例或许可以为您提供帮助。您也可以进一步了解该方法所在sklearn.ensemble.RandomForestClassifier的用法示例。


在下文中一共展示了RandomForestClassifier.C方法的2个代码示例,这些例子默认根据受欢迎程度排序。您可以为喜欢或者感觉有用的代码点赞,您的评价将有助于系统推荐出更棒的Python代码示例。

示例1: scale_data

# 需要导入模块: from sklearn.ensemble import RandomForestClassifier [as 别名]
# 或者: from sklearn.ensemble.RandomForestClassifier import C [as 别名]
    train_data, train_response=prepare_data(data)
    test_data,test_response=prepare_data(data1)
    #print train_data[0,:],test_data[0,:]

    #train_data,test_data= scale_data(train_data.astype(float),test_data.astype(float))
    #model=svm.SVC(probability=True)

    model=RandomForestClassifier(n_estimators=500, criterion="entropy") 
    imp=preprocessing.Imputer(missing_values=0,strategy="median",axis=0)
    imp.fit(train_data)
    train_data=imp.transform(train_data)
    test_data=imp.transform(test_data)
    #Pipeline([("imputer",preprocessing.Imputer(missing_values=0.0,strategy="median",axis=0)),("forest", RandomForestClassifier(n_estimators=500, criterion="entropy"))])
    #model=ExtraTreesClassifier(n_estimators=500,criterion="entropy")
    print '-------find optimze hyperparameter--------'
    model.C=35.33 #hyperparam(train_data,train_response,model)
    print '---- doing cv now ------------'
    cv_score= cv_loop(train_data, train_response, model)
    print 'cv mean AUC score= ',cv_score
    print '------ fitting full model -------------'
    model.fit(train_data, train_response)
    preds=model.predict_proba(test_data)[:,1]
    #print model.accuracy_score(test_scaled, test_response)
    print 'test data AUC score= ', metrics.roc_auc_score(test_response, preds)
    print '------------------------------'
    print 'entries in test data= ',len(preds)
    ct=0
    for pred in preds:
        #print pred
        if pred>=0.5: 
            ct+=1
开发者ID:bsuman79,项目名称:chicago-river-sewage,代码行数:33,代码来源:analysis.py

示例2: KFold

# 需要导入模块: from sklearn.ensemble import RandomForestClassifier [as 别名]
# 或者: from sklearn.ensemble.RandomForestClassifier import C [as 别名]
importantidx = [t[1]+1 for t in mylist[:impcount]]
Xtr = data[:tr,importantidx]
Ytr = data[:tr,0]
Xtes = data[tr:,importantidx]
Ytes = data[tr:,0]


#### New SVM with selected Features from 
for k in K:
    kf = KFold(len(Xtr),n_folds=5, shuffle=True)
    Error =[]
    F1score =[]
    for train, test in kf:
        #clf = svm.SVC(kernel='poly', class_weight={1: 4})
        clf = svm.SVC(kernel='poly', degree =1, class_weight={1:4})
        clf.C = k
        clf.fit(Xtr[train],Ytr[train])

        Yhat = clf.predict(Xtr[test])
        print sum(abs(Ytr[test]-Yhat))
        Error.append(1- abs(Ytr[test]-Yhat).mean())
        F1score.append(f1_score(Ytr[test], Yhat, average='weighted'))
    scores.append(np.mean(F1score))
    scores_std.append(np.std(F1score))



"""Plotting section goes here
I will plot scores +, - one standard deviation"""

plt.figure(1, figsize=(4, 3))
开发者ID:AmirSalimi,项目名称:DataInCub,代码行数:33,代码来源:temRandomForestSVM.py


注:本文中的sklearn.ensemble.RandomForestClassifier.C方法示例由纯净天空整理自Github/MSDocs等开源代码及文档管理平台,相关代码片段筛选自各路编程大神贡献的开源项目,源码版权归原作者所有,传播和使用请参考对应项目的License;未经允许,请勿转载。