Структурированный блокнот   
 Машинное обучение (Machine Learning, обучающиеся алгоритмы) →  Обучение с учителем (Supervised learning) →  Метод деревьев решений (decision trees) →  

Random forest

Идеи улучшения:
Обучаемся на части данных, далее верифицируем по оставшейся и проставляем листьям веса: а) вероятности правильного ответа, б) хранить в листьях вероятности всех ответов, а не только максимального вероятного в) хранить в листьях наиболее вероятные и наименее вероятные ответы (чтобы потом этим листом не давать пройти вверх мене вероятным ответам).
Обучаемся на каком-либо кластере исходных данных
На шаге делим не только по одной переменной, но пробуем деление по SVM (в кластере или линейно)
На шаге пробуем делить по одной переменной не бинарно, а сразу множественно.
На шаге пробуем поставить в лист не константу, а линейную регрессию по переменным, по которым достаточно данных (и опять же проверить, что не шумит).
Отдельно попробовать обучаться сначала в подмножестве исходных данных, где можно зафиксировать много переменных константами, и это дерево вытащить вверх, а потом уже смотреть, как оно сплитится по переменным.
Поиск по записям: только в текущем разделе.