百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 热门文章 > 正文

在Python中实现随机森林分类模型

bigegpt 2024-08-31 16:45 2 浏览

随机森林算法用于分类和回归。随机森林是一种由多个决策树组成的集合学习方法。通过平均几棵决策树的影响,随机森林往往会改善预测。

有许多不同的模型可用于对分类数据进行预测。Logistic回归是二项数据中最常见的一种。其他方法包括支持向量机(“SVM”),朴素贝叶斯和k最近邻。随机森林倾向于在模型具有大量特征的情景中发挥作用,这些特征单独具有较弱的预测能力,但集体强大得多。

在本文中,我将为您提供一个关于如何在Python中为分类问题实现随机森林模型的快速指南。

加载数据

为了理解如何在Python中实现随机森林模型,我们将用皮马印第安人糖尿病数据集做一个非常简单的例子。你可以从很多来源找到它,或者你可以复制下面的代码。

import pandas as pd

# list for column headers

names = ['preg', 'plas', 'pres', 'skin', 'test', 'mass', 'pedi', 'age', 'class']

# open file with pd.read_csv

df = pd.read_csv("https://raw.githubusercontent.com/jbrownlee/Datasets/master/pima-indians-diabetes.data.csv", names=names)

print(df.shape)

# print head of data set

print(df.head())

虽然皮马印第安人糖尿病数据集不一定是最适合所有其他模型的随机森林数据的一个例子,但真正的目标是通过简单的数据集来实现模型的过程。

创建一个随机森林模型

让我们来创建我们的模型。我们试图预测患者是否患有糖尿病。这与“class”栏一致,这将成为我们的自变量。我们将使用所有其他列作为我们模型的特征。

X = df.drop(‘class’, axis=1)

y = df[‘class’]

我们将使用train-test-split将数据分解为训练数据和测试数据。

from sklearn.model_selection import train_test_split

# implementing train-test-split

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.33, random_state=66)

现在,我们可以创建随机森林模型。

from sklearn import model_selection

# random forest model creation

rfc = RandomForestClassifier()

rfc.fit(X_train,y_train)

# predictions

rfc_predict = rfc.predict(X_test)

评估性能

我们将导入cross_val_score、classification_report和sion_matrix。

from sklearn.model_selection import cross_val_score

from sklearn.metrics import classification_report, confusion_matrix

我们还将运行交叉验证以更好地了解结果。

rfc_cv_score = cross_val_score(rfc, X, y, cv=10, scoring=’roc_auc’)

现在,我们将打印出结果。

print("=== Confusion Matrix ===")

print(confusion_matrix(y_test, rfc_predict))

print('\n')

print("=== Classification Report ===")

print(classification_report(y_test, rfc_predict))

print('\n')

print("=== All AUC Scores ===")

print(rfc_cv_score)

print('\n')

print("=== Mean AUC Score ===")

print("Mean AUC Score - Random Forest: ", rfc_cv_score.mean())

你应该得到一个如下所示的打印输出:

混淆矩阵对于给你假阳性和假阴性是有用的。分类报告告诉你模型的准确性。ROC曲线绘制出了不同阈值下的真阳性率和假阳性率。在交叉验证模型中使用的roc_auc评分显示ROC曲线下的面积。

我们将根据roc_auc评分来评估模型的分数,即.792。接下来我们要做的是调整我们的超参数,看看我们是否能提高模型的性能。

调优Hyperparameters

我们将从sklearn中使用随机搜索cv优化我们的超参数。我决定关注3个超参数:n_estimators、max_features和max_depth。

from sklearn.model_selection import RandomizedSearchCV

# Number of trees in random forest

n_estimators = [int(x) for x in np.linspace(start = 200, stop = 2000, num = 10)]

# Number of features to consider at every split

max_features = [‘auto’, ‘sqrt’]

# Maximum number of levels in tree

# max_depth = [int(x) for x in np.linspace(10, 110, num = 11)]

max_depth = [int(x) for x in np.linspace(100, 500, num = 11)]

max_depth.append(None)

# Create the random grid

random_grid = {

‘n_estimators’: n_estimators,

‘max_features’: max_features,

‘max_depth’: max_depth

}

# Random search of parameters, using 3 fold cross validation,

# search across 100 different combinations, and use all available cores

rfc_random = RandomizedSearchCV(estimator = rfc, param_distributions = random_grid, n_iter = 100, cv = 3, verbose=2, random_state=42, n_jobs = -1)

# Fit the random search model

rfc_random.fit(X_train, y_train)

print(rfc_random.best_params_)

这应该需要几分钟时间才能运行,底部的打印输出显示了我们模型的最佳超参数。

我的结果是:'n_estimators'= 600; 'max_features'='sqrt'; 'max_depth':300.现在我们可以将它们重新插入到模型中,以查看它是否改进了我们的性能。

rfc = RandomForestClassifier(n_estimators=600, max_depth=300, max_features='sqrt')

rfc.fit(X_train,y_train)

rfc_predict = rfc.predict(X_test)

rfc_cv_score = cross_val_score(rfc, X, y, cv=10, scoring='roc_auc')

print("=== Confusion Matrix ===")

print(confusion_matrix(y_test, rfc_predict))

print('\n')

print("=== Classification Report ===")

print(classification_report(y_test, rfc_predict))

print('\n')

print("=== All AUC Scores ===")

print(rfc_cv_score)

print('\n')

print("=== Mean AUC Score ===")

print("Mean AUC Score - Random Forest: ", rfc_cv_score.mean())

从输出中我们可以看到结果略有改善。我们的roc_auc得分从0.793提高到了.829。缺点是我们的假阳性数量略有增加(但假阴性降低)。

相关推荐

Java 泛型大揭秘:类型参数、通配符与最佳实践

引言在编程世界中,代码的可重用性和可维护性是至关重要的。为了实现这些目标,Java5引入了一种名为泛型(Generics)的强大功能。本文将详细介绍Java泛型的概念、优势和局限性,以及如何在...

K8s 的标签与选择器:流畅运维的秘诀

在Kubernetes的世界里,**标签(Label)和选择器(Selector)**并不是最炫酷的技术,但却是贯穿整个集群管理与运维流程的核心机制。正是它们让复杂的资源调度、查询、自动化运维变得...

哈希Hash算法:原理、应用(哈希算法 知乎)

原作者:Linux教程,原文地址:「链接」什么是哈希算法?哈希算法(HashAlgorithm),又称为散列算法或杂凑算法,是一种将任意长度的数据输入转换为固定长度输出值的数学函数。其输出结果通常被...

C#学习:基于LLM的简历评估程序(c# 简历)

前言在pocketflow的例子中看到了一个基于LLM的简历评估程序的例子,感觉还挺好玩的,为了练习一下C#,我最近使用C#重写了一个。准备不同的简历:image-20250528183949844查...

55顺位,砍41+14+3!季后赛也成得分王,难道他也是一名球星?

雷霆队最不可思议的新星:一个55号秀的疯狂逆袭!你是不是也觉得NBA最底层的55号秀,就只能当饮水机管理员?今年的55号秀阿龙·威金斯恐怕要打破你的认知了!常规赛阶段,这位二轮秀就像开了窍的天才,直接...

5分钟读懂C#字典对象(c# 字典获取值)

什么是字典对象在C#中,使用Dictionary类来管理由键值对组成的集合,这类集合被称为字典。字典最大的特点就是能够根据键来快速查找集合中的值,其键的定义不能重复,具有唯一性,相当于数组索引值,字典...

c#窗体传值(c# 跨窗体传递数据)

在WinForm编程中我们经常需要进行俩个窗体间的传值。下面我给出了两种方法,来实现传值一、在输入数据的界面中定义一个属性,供接受数据的窗体使用1、子窗体usingSystem;usingSyst...

C#入门篇章—委托(c#委托的理解)

C#委托1.委托的定义和使用委托的作用:如果要把方法作为函数来进行传递的话,就要用到委托。委托是一个类型,这个类型可以赋值一个方法的引用。C#的委托通过delegate关键字来声明。声明委托的...

C#.NET in、out、ref详解(c#.net framework)

简介在C#中,in、ref和out是用于修改方法参数传递方式的关键字,它们决定了参数是按值传递还是按引用传递,以及参数是否必须在传递前初始化。基本语义对比修饰符传递方式可读写性必须初始化调用...

C#广义表(广义表headtail)

在C#中,广义表(GeneralizedList)是一种特殊的数据结构,它是线性表的推广。广义表可以包含单个元素(称为原子),也可以包含另一个广义表(称为子表)。以下是一个简单的C#广义表示例代...

「C#.NET 拾遗补漏」04:你必须知道的反射

阅读本文大概需要3分钟。通常,反射用于动态获取对象的类型、属性和方法等信息。今天带你玩转反射,来汇总一下反射的各种常见操作,捡漏看看有没有你不知道的。获取类型的成员Type类的GetMembe...

C#启动外部程序的问题(c#怎么启动)

IT&OT的深度融合是智能制造的基石。本公众号将聚焦于PLC编程与上位机开发。除理论知识外,也会结合我们团队在开发过程中遇到的具体问题介绍一些项目经验。在使用C#开发上位机时,有时会需要启动外部的一些...

全网最狠C#面试拷问:这20道题没答出来,别说你懂.NET!

在竞争激烈的C#开发岗位求职过程中,面试是必经的一道关卡。而一场高质量的面试,不仅能筛选出真正掌握C#和.NET技术精髓的人才,也能让求职者对自身技术水平有更清晰的认知。今天,就为大家精心准备了20道...

C#匿名方法(c#匿名方法与匿名类)

C#中的匿名方法是一种没有名称只有主体的方法,它提供了一种传递代码块作为委托参数的技术。以下是关于C#匿名方法的一些重要特点和用法:特点省略参数列表:使用匿名方法可省略参数列表,这意味着匿名方法...

C# Windows窗体(.Net Framework)知识总结

Windows窗体可大致分为Form窗体和MDI窗体,Form窗体没什么好细说的,知识点总结都在思维导图里面了,下文将围绕MDI窗体来讲述。MDI(MultipleDocumentInterfac...