決策是什麼意思有什麼優缺點
分類樹***決策樹***是一種十分常用的分類方法。那麼你對決策樹瞭解多少呢?以下是由小編整理關於什麼是決策樹的內容,希望大家喜歡!
決策樹的簡介
決策樹***Decision Tree***是在已知各種情況發生概率的基礎上,通過構成決策樹來求取淨現值的期望值大於等於零的概率,評價專案風險,判斷其可行性的決策分析方法,是直觀運用概率分析的一種圖解法。由於這種決策分支畫成圖形很像一棵樹的枝幹,故稱決策樹。在機器學習中,決策樹是一個預測模型,他代表的是物件屬性與物件值之間的一種對映關係。Entropy = 系統的凌亂程度,使用演算法ID3, C4.5和C5.0生成樹演算法使用熵。這一度量是基於資訊學理論中熵的概念。
決策樹是一種樹形結構,其中每個內部節點表示一個屬性上的測試,每個分支代表一個測試輸出,每個葉節點代表一種類別。
分類樹***決策樹***是一種十分常用的分類方法。他是一種監管學習,所謂監管學習就是給定一堆樣本,每個樣本都有一組屬性和一個類別,這些類別是事先確定的,那麼通過學習得到一個分類器,這個分類器能夠對新出現的物件給出正確的分類。這樣的機器學習就被稱之為監督學習。
決策樹的組成
□——決策點,是對幾種可能方案的選擇,即最後選擇的最佳方案。如果決策屬於多級決策,則決策樹的中間可以有多個決策點,以決策樹根部的決策點為最終決策方案。
○——狀態節點,代表備選方案的經濟效果***期望值***,通過各狀態節點的經濟效果的對比,按照一定的決策標準就可以選出最佳方案。由狀態節點引出的分支稱為概率枝,概率枝的數目表示可能出現的自然狀態數目每個分枝上要註明該狀態出現的概率。
△——結果節點,將每個方案在各種自然狀態下取得的損益值標註於結果節點的右端。
決策樹的優點
決策樹易於理解和實現,人們在在學習過程中不需要使用者瞭解很多的背景知識,這同時是它的能夠直接體現資料的特點,只要通過解釋後都有能力去理解決策樹所表達的意義。
對於決策樹,資料的準備往往是簡單或者是不必要的,而且能夠同時處理資料型和常規型屬性,在相對短的時間內能夠對大型資料來源做出可行且效果良好的結果。
易於通過靜態測試來對模型進行評測,可以測定模型可信度;如果給定一個觀察的模型,那麼根據所產生的決策樹很容易推出相應的邏輯表示式。
決策樹的缺點
1***對連續性的欄位比較難預測。
2***對有時間順序的資料,需要很多預處理的工作。
3***當類別太多時,錯誤可能就會增加的比較快。
4***一般的演算法分類的時候,只是根據一個欄位來分類。
決策樹的例項
為了適應市場的需要,某地準備擴大電視機生產。市場預測表明:產品銷路好的概率為0.7;銷路差的概率為0.3。備選方案有三個:第一個方案是建設大工廠,需要投資600萬元,可使用10年;如銷路好,每年可贏利200萬元;如銷路不好,每年會虧損40萬元。第二個方案是建設小工廠,需投資280萬元;如銷路好,每年可贏利80萬元;如銷路不好,每年也會贏利60萬元。第三個方案也是先建設小工廠,但是如銷路好,3年後擴建,擴建需投資400萬元,可使用7年,擴建後每年會贏利190萬元。
各點期望:
點②:0.7×200×10+0.3×***-40***×10-600***投資***=680***萬元***
決策樹分析
決策樹分析
點⑤:1.0×190×7-400=930***萬元***
點⑥:1.0×80×7=560***萬元***
比較決策點4的情況可以看到,由於點⑤***930萬元***與點⑥***560萬元***相比,點⑤的期望利潤值較大,因此應採用擴建的方案,而捨棄不擴建的方案。把點⑤的930萬元移到點4來,可計算出點③的期望利潤值。
點③:0.7×80×3+0.7×930+0.3×60×***3+7***-280 = 719***萬元***
最後比較決策點1的情況。由於點③***719萬元***與點②***680萬元***相比,點③的期望利潤值較大,因此取點③而舍點②。這樣,相比之下,建設大工廠的方案不是最優方案,合理的策略應採用前3年建小工廠,如銷路好,後7年進行擴建的方案。
決策樹的優缺點