Như vậy chúng ta đã cùng nhau đi qua 4 phần của series bài viết về thuật toán Decision trees hay còn gọi là thuật toán cây quyết định. Chúng ta đã làm quen với định nghĩa tổng quát, các dạng cây quyết định bao gồm phân 2 nhánh – CART, và nhiều nhánh C4.5 sử dụng các công thức Goodness of Split, Gini Index, Entropy kết hợp với Information Gain, hay Gain Ratio để xây dựng mô hình áp dụng cho biến mục tiêu là biến định tính, và chúng ta cũng tiếp cận qua một số cách thức để tăng độ hiệu quả của mô hình, tránh trường hợp Overfitting hay Underfitting như Stopping rule và Pruning method, và nhìn lại những ưu điểm, khuyết điểm một cách tổng thể về Decision Trees.

Xem thêm: THUẬT TOÁN CÂY QUYẾT ĐỊNH (P.5) REGRESSION TREE VÀ DECISION RULES
Một câu nói nổi tiếng của William Glasser, chuyên gia tâm thân học Mỹ:
Chúng ta học….
10% của những gì ta đọc được
20% của những gì ta nghe thấy
30% của những gì ta nhìn thấy
50% của những gì ta nghe và nhìn thấy
70% của những gì ta thảo luận
80% của những gì ta trải nghiệm
95% của những điều ta dạy người khác

Xem thêm: Phần mềm hiện thị dữ liệu, phân tích dữ liệu