精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

隨機森林算法及其實現

新機器視覺 ? 來源:新機器視覺 ? 2023-05-15 09:46 ? 次閱讀

1 什么是隨機森林?

作為新興起的、高度靈活的一種機器學習算法,隨機森林(Random Forest,簡稱RF)擁有廣泛的應用前景,從市場營銷到醫療保健保險,既可以用來做市場營銷模擬的建模,統計客戶來源,保留和流失,也可用來預測疾病的風險和病患者的易感性。最初,我是在參加校外競賽時接觸到隨機森林算法的。最近幾年的國內外大賽,包括2013年百度校園電影推薦系統大賽、2014年阿里巴巴天池大數據競賽以及Kaggle數據科學競賽,參賽者對隨機森林的使用占有相當高的比例。此外,據我的個人了解來看,一大部分成功進入答辯的隊伍也都選擇了Random Forest 或者 GBDT 算法。所以可以看出,Random Forest在準確率方面還是相當有優勢的。

那說了這么多,那隨機森林到底是怎樣的一種算法呢?

如果讀者接觸過決策樹(Decision Tree)的話,那么會很容易理解什么是隨機森林。隨機森林就是通過集成學習的思想將多棵樹集成的一種算法,它的基本單元是決策樹,而它的本質屬于機器學習的一大分支——集成學習(Ensemble Learning)方法。隨機森林的名稱中有兩個關鍵詞,一個是“隨機”,一個就是“森林”。“森林”我們很好理解,一棵叫做樹,那么成百上千棵就可以叫做森林了,這樣的比喻還是很貼切的,其實這也是隨機森林的主要思想--集成思想的體現?!半S機”的含義我們會在下邊部分講到。

其實從直觀角度來解釋,每棵決策樹都是一個分類器(假設現在針對的是分類問題),那么對于一個輸入樣本,N棵樹會有N個分類結果。而隨機森林集成了所有的分類投票結果,將投票次數最多的類別指定為最終的輸出,這就是一種最簡單的 Bagging 思想。

回到頂部

2 隨機森林的特點

我們前邊提到,隨機森林是一種很靈活實用的方法,它有如下幾個特點:

  • 在當前所有算法中,具有極好的準確率/It is unexcelled in accuracy among current algorithms;

  • 能夠有效地運行在大數據集上/It runs efficiently on large data bases;

  • 能夠處理具有高維特征的輸入樣本,而且不需要降維/It can handle thousands of input variables without variable deletion;

  • 能夠評估各個特征在分類問題上的重要性/It gives estimates of what variables are important in the classification;

  • 在生成過程中,能夠獲取到內部生成誤差的一種無偏估計/It generates an internal unbiased estimate of the generalization error as the forest building progresses;

  • 對于缺省值問題也能夠獲得很好得結果/It has an effective method for estimating missing data and maintains accuracy when a large proportion of the data are missing

  • ... ...

實際上,隨機森林的特點不只有這六點,它就相當于機器學習領域的Leatherman(多面手),你幾乎可以把任何東西扔進去,它基本上都是可供使用的。在估計推斷映射方面特別好用,以致都不需要像SVM那樣做很多參數的調試。具體的隨機森林介紹可以參見隨機森林主頁:Random Forest。

回到頂部

3 隨機森林的相關基礎知識

隨機森林看起來是很好理解,但是要完全搞明白它的工作原理,需要很多機器學習方面相關的基礎知識。在本文中,我們簡單談一下,而不逐一進行贅述,如果有同學不太了解相關的知識,可以參閱其他博友的一些相關博文或者文獻。

1)信息、熵以及信息增益的概念

這三個基本概念是決策樹的根本,是決策樹利用特征來分類時,確定特征選取順序的依據。理解了它們,決策樹你也就了解了大概。

引用香農的話來說,信息是用來消除隨機不確定性的東西。當然這句話雖然經典,但是還是很難去搞明白這種東西到底是個什么樣,可能在不同的地方來說,指的東西又不一樣。對于機器學習中的決策樹而言,如果帶分類的事物集合可以劃分為多個類別當中,則某個類(xi)的信息可以定義如下:

b1a4812c-f2b5-11ed-90ce-dac502259ad0.png

I(x)用來表示隨機變量的信息,p(xi)指是當xi發生時的概率。

熵是用來度量不確定性的,當熵越大,X=xi的不確定性越大,反之越小。對于機器學習中的分類問題而言,熵越大即這個類別的不確定性更大,反之越小。

信息增益在決策樹算法中是用來選擇特征的指標,信息增益越大,則這個特征的選擇性越好。

這方面的內容不再細述,感興趣的同學可以看信息&熵&信息增益這篇博文。

2)決策樹

決策樹是一種樹形結構,其中每個內部節點表示一個屬性上的測試,每個分支代表一個測試輸出,每個葉節點代表一種類別。常見的決策樹算法有C4.5、ID3和CART。

3)集成學習

集成學習通過建立幾個模型組合的來解決單一預測問題。它的工作原理是生成多個分類器/模型,各自獨立地學習和作出預測。這些預測最后結合成單預測,因此優于任何一個單分類的做出預測。

隨機森林是集成學習的一個子類,它依靠于決策樹的投票選擇來決定最后的分類結果。你可以在這找到用python實現集成學習的文檔:Scikit 學習文檔。

回到頂部

4 隨機森林的生成

前面提到,隨機森林中有許多的分類樹。我們要將一個輸入樣本進行分類,我們需要將輸入樣本輸入到每棵樹中進行分類。打個形象的比喻:森林中召開會議,討論某個動物到底是老鼠還是松鼠,每棵樹都要獨立地發表自己對這個問題的看法,也就是每棵樹都要投票。該動物到底是老鼠還是松鼠,要依據投票情況來確定,獲得票數最多的類別就是森林的分類結果。森林中的每棵樹都是獨立的,99.9%不相關的樹做出的預測結果涵蓋所有的情況,這些預測結果將會彼此抵消。少數優秀的樹的預測結果將會超脫于蕓蕓“噪音”,做出一個好的預測。將若干個弱分類器的分類結果進行投票選擇,從而組成一個強分類器,這就是隨機森林bagging的思想(關于bagging的一個有必要提及的問題:bagging的代價是不用單棵決策樹來做預測,具體哪個變量起到重要作用變得未知,所以bagging改進了預測準確率但損失了解釋性。)。下圖可以形象地描述這個情況:

b1b92514-f2b5-11ed-90ce-dac502259ad0.png

有了樹我們就可以分類了,但是森林中的每棵樹是怎么生成的呢?

每棵樹的按照如下規則生成:

1)如果訓練集大小為N,對于每棵樹而言,隨機且有放回地從訓練集中的抽取N個訓練樣本(這種采樣方式稱為bootstrap sample方法),作為該樹的訓練集;

從這里我們可以知道:每棵樹的訓練集都是不同的,而且里面包含重復的訓練樣本(理解這點很重要)。

為什么要隨機抽樣訓練集?(add @2016.05.28)

如果不進行隨機抽樣,每棵樹的訓練集都一樣,那么最終訓練出的樹分類結果也是完全一樣的,這樣的話完全沒有bagging的必要;

為什么要有放回地抽樣?(add @2016.05.28)

我理解的是這樣的:如果不是有放回的抽樣,那么每棵樹的訓練樣本都是不同的,都是沒有交集的,這樣每棵樹都是"有偏的",都是絕對"片面的"(當然這樣說可能不對),也就是說每棵樹訓練出來都是有很大的差異的;而隨機森林最后分類取決于多棵樹(弱分類器)的投票表決,這種表決應該是"求同",因此使用完全不同的訓練集來訓練每棵樹這樣對最終分類結果是沒有幫助的,這樣無異于是"盲人摸象"。

2)如果每個樣本的特征維度為M,指定一個常數m<

3)每棵樹都盡最大程度的生長,并且沒有剪枝過程。

一開始我們提到的隨機森林中的“隨機”就是指的這里的兩個隨機性。兩個隨機性的引入對隨機森林的分類性能至關重要。由于它們的引入,使得隨機森林不容易陷入過擬合,并且具有很好得抗噪能力(比如:對缺省值不敏感)。

隨機森林分類效果(錯誤率)與兩個因素有關:

  • 森林中任意兩棵樹的相關性:相關性越大,錯誤率越大;

  • 森林中每棵樹的分類能力:每棵樹的分類能力越強,整個森林的錯誤率越低。

減小特征選擇個數m,樹的相關性和分類能力也會相應的降低;增大m,兩者也會隨之增大。所以關鍵問題是如何選擇最優的m(或者是范圍),這也是隨機森林唯一的一個參數。

回到頂部

5 袋外錯誤率(oob error)

上面我們提到,構建隨機森林的關鍵問題就是如何選擇最優的m,要解決這個問題主要依據計算袋外錯誤率oob error(out-of-bag error)。

隨機森林有一個重要的優點就是,沒有必要對它進行交叉驗證或者用一個獨立的測試集來獲得誤差的一個無偏估計。它可以在內部進行評估,也就是說在生成的過程中就可以對誤差建立一個無偏估計。

我們知道,在構建每棵樹時,我們對訓練集使用了不同的bootstrap sample(隨機且有放回地抽取)。所以對于每棵樹而言(假設對于第k棵樹),大約有1/3的訓練實例沒有參與第k棵樹的生成,它們稱為第k棵樹的oob樣本。

而這樣的采樣特點就允許我們進行oob估計,它的計算方式如下:

(note:以樣本為單位)

1)對每個樣本,計算它作為oob樣本的樹對它的分類情況(約1/3的樹);

2)然后以簡單多數投票作為該樣本的分類結果;

3)最后用誤分個數占樣本總數的比率作為隨機森林的oob誤分率。

(文獻原文:Put each case left out in the construction of the kth tree down the kth tree to get a classification. In this way, a test set classification is obtained for each case in about one-third of the trees. At the end of the run, take j to be the class that got most of the votes every time case n was oob. The proportion of times that j is not equal to the true class of n averaged over all cases is the oob error estimate. This has proven to be unbiased in many tests.)

oob誤分率是隨機森林泛化誤差的一個無偏估計,它的結果近似于需要大量計算的k折交叉驗證。

回到頂部

6 隨機森林工作原理解釋的一個簡單例子

描述:根據已有的訓練集已經生成了對應的隨機森林,隨機森林如何利用某一個人的年齡(Age)、性別(Gender)、教育情況(Highest Educational Qualification)、工作領域(Industry)以及住宅地(Residence)共5個字段來預測他的收入層次。

收入層次 :

Band 1 : Below $40,000

Band 2: $40,000 –150,000

Band 3: More than $150,000

隨機森林中每一棵樹都可以看做是一棵CART(分類回歸樹),這里假設森林中有5棵CART樹,總特征個數N=5,我們取m=1(這里假設每個CART樹對應一個不同的特征)。

CART 1 : Variable Age

b1d9f2ee-f2b5-11ed-90ce-dac502259ad0.png

CART 2 : VariableGender

b1f52708-f2b5-11ed-90ce-dac502259ad0.png

CART 3 : Variable Education

b209d036-f2b5-11ed-90ce-dac502259ad0.png

CART 4 : VariableResidence

b21a867e-f2b5-11ed-90ce-dac502259ad0.png

CART 5 : VariableIndustry

b22ea8ca-f2b5-11ed-90ce-dac502259ad0.png

我們要預測的某個人的信息如下:

1. Age : 35 years ; 2. Gender : Male ; 3. Highest Educational Qualification : Diploma holder; 4. Industry : Manufacturing; 5. Residence : Metro.

根據這五棵CART樹的分類結果,我們可以針對這個人的信息建立收入層次的分布情況:

b2444ca2-f2b5-11ed-90ce-dac502259ad0.png

最后,我們得出結論,這個人的收入層次70%是一等,大約24%為二等,6%為三等,所以最終認定該人屬于一等收入層次(小于$40,000)。

回到頂部

7 隨機森林的Python實現

利用Python的兩個模塊,分別為pandas和scikit-learn來實現隨機森林。

b257eea6-f2b5-11ed-90ce-dac502259ad0.jpg


					
  1. from sklearn.datasets import load_iris

  2. from sklearn.ensemble import RandomForestClassifier

  3. import pandas as pd

  4. import numpy as np

  5. iris = load_iris()

  6. df = pd.DataFrame(iris.data, columns=iris.feature_names)

  7. df['is_train'] = np.random.uniform(0, 1, len(df)) <= .75

  8. df['species'] = pd.Factor(iris.target, iris.target_names)

  9. df.head()

  10. train, test = df[df['is_train']==True], df[df['is_train']==False]

  11. features = df.columns[:4]

  12. clf = RandomForestClassifier(n_jobs=2)

  13. y, _ = pd.factorize(train['species'])

  14. clf.fit(train[features], y)

  15. preds = iris.target_names[clf.predict(test[features])]

  16. pd.crosstab(test['species'], preds, rownames=['actual'], colnames=['preds'])

b26c3a3c-f2b5-11ed-90ce-dac502259ad0.jpg

分類結果:

b27b90b8-f2b5-11ed-90ce-dac502259ad0.png

與其他機器學習分類算法進行對比:

b26c3a3c-f2b5-11ed-90ce-dac502259ad0.jpg


					
  1. import numpy as np

  2. import matplotlib.pyplot as plt

  3. from matplotlib.colors import ListedColormap

  4. from sklearn.cross_validation import train_test_split

  5. from sklearn.preprocessing import StandardScaler

  6. from sklearn.datasets import make_moons, make_circles, make_classification

  7. from sklearn.neighbors import KNeighborsClassifier

  8. from sklearn.svm import SVC

  9. from sklearn.tree import DecisionTreeClassifier

  10. from sklearn.ensemble import RandomForestClassifier, AdaBoostClassifier

  11. from sklearn.naive_bayes import GaussianNB

  12. from sklearn.lda import LDA

  13. from sklearn.qda import QDA

  14. h = .02 # step size in the mesh

  15. names = ["Nearest Neighbors", "Linear SVM", "RBF SVM", "Decision Tree",

  16. "Random Forest", "AdaBoost", "Naive Bayes", "LDA", "QDA"]

  17. classifiers = [

  18. KNeighborsClassifier(3),

  19. SVC(kernel="linear", C=0.025),

  20. SVC(gamma=2, C=1),

  21. DecisionTreeClassifier(max_depth=5),

  22. RandomForestClassifier(max_depth=5, n_estimators=10, max_features=1),

  23. AdaBoostClassifier(),

  24. GaussianNB(),

  25. LDA(),

  26. QDA()]

  27. X, y = make_classification(n_features=2, n_redundant=0, n_informative=2,

  28. random_state=1, n_clusters_per_class=1)

  29. rng = np.random.RandomState(2)

  30. X += 2 * rng.uniform(size=X.shape)

  31. linearly_separable = (X, y)

  32. datasets = [make_moons(noise=0.3, random_state=0),

  33. make_circles(noise=0.2, factor=0.5, random_state=1),

  34. linearly_separable

  35. ]

  36. figure = plt.figure(figsize=(27, 9))

  37. i = 1

  38. # iterate over datasets

  39. for ds in datasets:

  40. # preprocess dataset, split into training and test part

  41. X, y = ds

  42. X = StandardScaler().fit_transform(X)

  43. X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=.4)

  44. x_min, x_max = X[:, 0].min() - .5, X[:, 0].max() + .5

  45. y_min, y_max = X[:, 1].min() - .5, X[:, 1].max() + .5

  46. xx, yy = np.meshgrid(np.arange(x_min, x_max, h),

  47. np.arange(y_min, y_max, h))

  48. # just plot the dataset first

  49. cm = plt.cm.RdBu

  50. cm_bright = ListedColormap(['#FF0000', '#0000FF'])

  51. ax = plt.subplot(len(datasets), len(classifiers) + 1, i)

  52. # Plot the training points

  53. ax.scatter(X_train[:, 0], X_train[:, 1], c=y_train, cmap=cm_bright)

  54. # and testing points

  55. ax.scatter(X_test[:, 0], X_test[:, 1], c=y_test, cmap=cm_bright, alpha=0.6)

  56. ax.set_xlim(xx.min(), xx.max())

  57. ax.set_ylim(yy.min(), yy.max())

  58. ax.set_xticks(())

  59. ax.set_yticks(())

  60. i += 1

  61. # iterate over classifiers

  62. for name, clf in zip(names, classifiers):

  63. ax = plt.subplot(len(datasets), len(classifiers) + 1, i)

  64. clf.fit(X_train, y_train)

  65. score = clf.score(X_test, y_test)

  66. # Plot the decision boundary. For that, we will assign a color to each

  67. # point in the mesh [x_min, m_max]x[y_min, y_max].

  68. if hasattr(clf, "decision_function"):

  69. Z = clf.decision_function(np.c_[xx.ravel(), yy.ravel()])

  70. else:

  71. Z = clf.predict_proba(np.c_[xx.ravel(), yy.ravel()])[:, 1]

  72. # Put the result into a color plot

  73. Z = Z.reshape(xx.shape)

  74. ax.contourf(xx, yy, Z, cmap=cm, alpha=.8)

  75. # Plot also the training points

  76. ax.scatter(X_train[:, 0], X_train[:, 1], c=y_train, cmap=cm_bright)

  77. # and testing points

  78. ax.scatter(X_test[:, 0], X_test[:, 1], c=y_test, cmap=cm_bright,

  79. alpha=0.6)

  80. ax.set_xlim(xx.min(), xx.max())

  81. ax.set_ylim(yy.min(), yy.max())

  82. ax.set_xticks(())

  83. ax.set_yticks(())

  84. ax.set_title(name)

  85. ax.text(xx.max() - .3, yy.min() + .3, ('%.2f' % score).lstrip('0'),

  86. size=15, horizontalalignment='right')

  87. i += 1

  88. figure.subplots_adjust(left=.02, right=.98)

  89. plt.show()

b26c3a3c-f2b5-11ed-90ce-dac502259ad0.jpg

b2b4fc18-f2b5-11ed-90ce-dac502259ad0.png

這里隨機生成了三個樣本集,分割面近似為月形、圓形和線形的。我們可以重點對比一下決策樹和隨機森林對樣本空間的分割:

1)從準確率上可以看出,隨機森林在這三個測試集上都要優于單棵決策樹,90%>85%,82%>80%,95%=95%;

2)從特征空間上直觀地可以看出,隨機森林比決策樹擁有更強的分割能力(非線性擬合能力)。

更多有關隨機森林的代碼:

1)Fortran版本

2)OpenCV版本

3)Matlab版本

4)R版本

審核編輯 :李倩


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 算法
    +關注

    關注

    23

    文章

    4599

    瀏覽量

    92642
  • 分類器
    +關注

    關注

    0

    文章

    152

    瀏覽量

    13174
  • python
    +關注

    關注

    56

    文章

    4782

    瀏覽量

    84453

原文標題:隨機森林算法及其實現

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    機器學習算法隨機森林算法詳解及工作原理圖解

    隨機森林是一種靈活且易于使用的機器學習算法,即便沒有超參數調優,也可以在大多數情況下得到很好的結果。它也是最常用的算法之一,因為它很簡易,既可用于分類也能用于回歸任務。 在這篇文章中,
    的頭像 發表于 03-14 16:10 ?31.9w次閱讀
    機器學習<b class='flag-5'>算法</b>之<b class='flag-5'>隨機</b><b class='flag-5'>森林</b><b class='flag-5'>算法</b>詳解及工作原理圖解

    機器學習隨機森林相關知識

    機器學習之隨機森林(三)
    發表于 04-02 10:06

    隨機森林的相關知識

    機器學習之隨機森林(一)
    發表于 08-27 07:30

    ML之決策樹與隨機森林

    ML--決策樹與隨機森林
    發表于 07-08 12:31

    隨機森林的跌倒檢測算法

    針對現有跌倒檢測算法由于缺乏真實老人跌倒樣本以及使用年輕人仿真跌倒樣本規模較小導致的過擬合和適應性不足等問題,提出了基于隨機森林的跌倒檢測算法。該
    發表于 12-29 14:50 ?2次下載

    面向隨機森林的差分隱私保護算法

    提出一種基于隨機森林的差分隱私保護算法DiffPRFs,在每一棵決策樹的構建過程中采用指數機制選擇分裂點和分裂屬性,并根據拉普拉斯機制添加噪聲。在整個算法過程中滿足差分隱私保護需求,相
    發表于 02-08 17:10 ?3次下載

    一種基于數據集成的隨機森林算法

    用于銷售預測的歷史數據存在稀疏性與波動性等特點,當預測周期較長時,傳統統計學或者機器學習領域預測算法的預測效果較差。為此,利用隨機森林的集成思想與訓練數據集的隨機分割重組,提出一種基于
    發表于 03-16 11:37 ?12次下載
    一種基于數據集成的<b class='flag-5'>隨機</b><b class='flag-5'>森林</b><b class='flag-5'>算法</b>

    基于隨機森林與轉換算法實現海洋數據的協同轉換

    轉換接口,提出基于隨機森林的數據分類與轉換算法實現海洋數據的協同轉換,并通過加入數據預處理過程降低時間復雜度。在此基礎上,設計改進的雞群優化算法
    發表于 03-31 14:41 ?1次下載
    基于<b class='flag-5'>隨機</b><b class='flag-5'>森林</b>與轉換<b class='flag-5'>算法</b><b class='flag-5'>實現</b>海洋數據的協同轉換

    基于k近鄰的完全隨機森林算法KCRForest

    針對有新類的動態數據流分類算法檢測新類性能不高的問題,提出一種基于k近鄰的完全隨機森林算法( Kcrforest)。該算法利用動態數據流中已
    發表于 04-02 10:01 ?18次下載
    基于k近鄰的完全<b class='flag-5'>隨機</b><b class='flag-5'>森林</b><b class='flag-5'>算法</b>KCRForest

    基于遺傳算法隨機森林的XGBoost改進方法

    回歸預測是機器學習中重要的研究方向之一,有著廣闊的應用領域。為了進一步提升回歸預測的精度,提出了基于遺傳算法隨機森林的 Gboost改進方法( GA Xgboost_RF)。首先利用遺傳算法
    發表于 04-26 15:44 ?10次下載
    基于遺傳<b class='flag-5'>算法</b>和<b class='flag-5'>隨機</b><b class='flag-5'>森林</b>的XGBoost改進方法

    面向差分數據挖掘隱私保護的隨機森林算法

    數據挖掘中的隱私保護問題是目前信息安全領域的研究熱點之一。針對隱私保護要求下的分類問題,提出一種面向差分隱私保護的隨機森林算法 REDPP-Gini。將隨機
    發表于 05-12 14:14 ?1次下載

    隨機森林的概念、工作原理及用例

    隨機森林是一種監督式算法,使用由眾多決策樹組成的一種集成學習方法,輸出是對問題最佳答案的共識。隨機森林可用于分類或回歸。
    的頭像 發表于 08-05 10:00 ?6809次閱讀

    利用隨機森林進行特征重要性評估

    隨機森林是以決策樹為基學習器的集成學習算法。隨機森林非常簡單,易于實現,計算開銷也很小,更令人驚
    的頭像 發表于 10-10 17:14 ?1851次閱讀

    基于Python實現隨機森林算法

    機器學習算法是數據挖掘、數據能力分析和數學建模必不可少的一部分,而隨機森林算法和決策樹算法是其中較為常用的兩種
    的頭像 發表于 09-21 11:17 ?1165次閱讀
    基于Python<b class='flag-5'>實現</b><b class='flag-5'>隨機</b><b class='flag-5'>森林</b><b class='flag-5'>算法</b>

    什么是隨機森林?隨機森林的工作原理

    隨機森林使用名為“bagging”的技術,通過數據集和特征的隨機自助抽樣樣本并行構建完整的決策樹。雖然決策樹基于一組固定的特征,而且經常過擬合,但隨機性對
    發表于 03-18 14:27 ?3399次閱讀
    什么是<b class='flag-5'>隨機</b><b class='flag-5'>森林</b>?<b class='flag-5'>隨機</b><b class='flag-5'>森林</b>的工作原理