溫馨提示×

python隨機(jī)森林算法怎么實(shí)現(xiàn)

小億
112
2023-10-10 17:47:33
欄目: 編程語言

要實(shí)現(xiàn)隨機(jī)森林算法,可以使用sklearn庫中的RandomForestClassifier類。下面是一個簡單的例子:

from sklearn.ensemble import RandomForestClassifier
from sklearn.model_selection import train_test_split
from sklearn.datasets import load_iris
# 加載數(shù)據(jù)集
iris = load_iris()
X = iris.data
y = iris.target
# 劃分訓(xùn)練集和測試集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
# 創(chuàng)建隨機(jī)森林分類器
rf = RandomForestClassifier(n_estimators=100, random_state=42)
# 訓(xùn)練模型
rf.fit(X_train, y_train)
# 在測試集上進(jìn)行預(yù)測
y_pred = rf.predict(X_test)
# 輸出預(yù)測結(jié)果
print(y_pred)

上述代碼首先加載了鳶尾花數(shù)據(jù)集,然后劃分訓(xùn)練集和測試集。接下來創(chuàng)建了一個包含100棵決策樹的隨機(jī)森林分類器,并使用訓(xùn)練集進(jìn)行訓(xùn)練。最后,在測試集上進(jìn)行預(yù)測并輸出結(jié)果。

需要注意的是,隨機(jī)森林算法還有很多參數(shù)可以調(diào)整,例如n_estimators表示決策樹的數(shù)量,max_depth表示決策樹的最大深度等。根據(jù)具體的問題和數(shù)據(jù)集,可以根據(jù)需要調(diào)整這些參數(shù)來優(yōu)化模型的性能。

0