Você está na página 1de 38

 Numerentur.

org 

Árboles De Decisión – DT

Un árbol de decisión DT (Decision Tree)  es un modelo de predicción de las alternativas


posibles a una serie de decisiones relacionadas.

De otra forma, es un método de aprendizaje supervisado no paramétrico para el


reconocimiento y clasi cación de patrones que permite crear un modelo para predecir el
valor de una variable (Atributo) mediante el aprendizaje de reglas de decisión derivadas de las
características de los datos. Su objetivo es encontrar una forma de representación de la
decisión que sea lo más simple y precisa posible. Es una de las principales técnicas predictivas
en el descubrimiento del conocimiento, basándose en datos y observaciones pasadas,
predice el futuro.

En nuestro caso, las decisiones son datos manejados por un algoritmo, con estructura de
clasi cación o regresión, que anticipa matemáticamente la mejor opción. En otras palabras,
inducen un modelo del dominio de entrada de datos a partir de un conjunto dado de
observaciones. Tienen dos funciones: Facilitar el recuento de todas las posibilidades, datos o
sucesos, y hacer operativo el cálculo de la probabilidad de los mismos. Es uno de los métodos
de aprendizaje inductivo más usado y también muy e ciente en la minería de datos. Se basan
en gran medida en métodos estadísticos y de probabilidad.

Una de las grandes ventajas de los árboles de decisión, respecto de otras técnicas, es la
posibilidad de unir fácilmente varios de ellos y provocar predicciones más seguras con un
coste computacional más bajo. Pero no todo es tan fácil, en un entorno caracterizado por la
incertidumbre y la imprecisión, debidas al ruido o la variación residual en los datos, no se
realiza bien la clasi cación, por lo tanto, tener información incierta o imprecisa en relación
con cualquier parámetro del problema puede llevar a resultados de cientes, para superar
esta limitación se han introducido teorías que pudieran representar la incertidumbre en
distintos tipos de árboles:
Difusos.

Convicción.

Posibilista.

Los iremos viendo con más detalle en nuevos artículos.

Un poco de historia.

Trattato di arithmetica

Es difícil encontrar el origen de la toma de decisiones y su evolución hasta nuestros dias,


pero también es evidente que es consustancial con el origen de los animales y su nivel
intelectual.

Una de las primeras preguntas documentadas que contiene la intencionalidad de


establecer un camino adecuado para obtener una decisión correcta es la de Filippo
Calandri que publica en 1.491 “Trattato di arithmetica“, donde plantea el problema del
“Reparto de la apuesta” o del “Juego interrumpido” o del “Reparto de puntos”, nombres
que ha ido tomando a lo largo del tiempo. Este problema cae dentro del estudio de las
probabilidades pero también en el de la toma de decisiones.

Soluciones se propusieron muchas, las de Luca Pacioli, Gerolamo Cardano, Niccolo


Tartaglia, Pierre de Fermat y Jacques Bernoulli con su concepto de “esperanza moral” de
1.738.

 
Después de un par de siglos más, en 1.931, Frank P. Ramsey propuso su teoría de la toma
de decisiones, basada en la probabilidad subjetiva y de utilidad. En 1.937 Bruno de Finetti,
desde el lado de la incertidumbre, también contribuye a la estructura de la probabilidad
subjetiva. Un poco más tarde se llega a las proposiciones de la moderna teoría de la
utilidad para la toma de decisiones bajo incertidumbre, desarrollada en 1.944 por John
von Neumann y Oskar Morgenstern en base a las ideas de Bernoulli. A partir de aquí hay
otros muchos más contribuidores, pero sobrepasa el objetivo de este artículo.

Morgenstern y Neumann

Neumann y Morgenstern postularon un conjunto de axiomas usando solo probabilidades


objetivas y demostraron que se podría asignar una utilidad a cada consecuencia, de
manera tal que el tomador de decisiones pre era la alternativa con la utilidad más alta
esperada para actuar.

Hasta los años 80 del siglo pasado, los modelos de árboles de decisión tuvieron mucha
popularidad en el entorno cientí co, médico e industrial debido a su capacidad de
aprendizaje y sobre todo por su aplicación en las denominadas EIS (Executive information
system) Sistemas de información estratégico. Durante un periodo corto se guardaron en
el “cajón de sastre”, ya que muchos algoritmos conducían a estructuras de árboles
excesivamente ajustados debido a la naturaleza heurística y codiciosa de estos
algoritmos.

A partir de 1.990 hubo un nuevo interés en su utilización, la acumulación de grandes


cantidades de datos en los denominados “Data Wharehouse” por parte de grandes
empresas y en la posibilidad de tratarlos con el “Datamining” la Minería de datos, Big
Data, y junto con las nuevas tendencias del aprendizaje automático, reconocimiento facial
y de objetos, les volvió a dar la importancia que tuvieron en su nacimiento.
 

Cómo es un Árbol de Decisión.


Una “romántica” explicación, en compañía de un matemático, es darnos un paseo en
otoño y observar los árboles del camino. Un árbol, de decisión, por lo general comienza
con un único tronco (nodo) que representa una característica, de él pueden salir ramas
(decisión o regla) que llegan a otro nodo que a su vez puede volverse a rami car, hasta
nalizar en las puntas (hojas), en nuestro caso el nodo terminal o resultado posible.

Pero resulta que su representación general es al revés, el tronco es la raíz principal y su


desarrollo es hacia abajo, completamente invertido, también se representa
horizontalmente. Entonces, lo lógico sería denominarlo raíces de decisión o representarlo
hacia arriba, sí, pero le daríamos la vuelta a décadas y …, mejor seguir la corriente ,
además, la representación grá ca de éstos es distinta en función de los distintos criterios
de autores y herramientas.

Existen muchas y diferentes variantes de árboles de decisión en la literatura y su


representación topa con referencias cruzadas, casos especiales, integración y evolución
de distintos algoritmos y algunas cuantas cosas más. De forma general se agrupan en
función del tipo de problema, la forma en la cual se inducen y el tipo de estructura.

Los datos que manejan los árboles se representan con tres tipos diferentes de
elementos: Atributos/Predictores, Valores y Clases. Los Atributos se pueden usar para
clasi car los datos existentes (árboles de clasi cación) o para aproximar funciones de
valores reales (árboles de regresión). Tenemos dos tipos básicos de árboles de decisión:

Árbol de clasi cación


 

De clasi cación, cuando las variables son discretas, numéricas que tienen un
número contable de valores en un intervalo cualquiera.  Predice el valor de una
variable categórica (objetivo o clase) mediante la construcción de un modelo
basado en uno o más predictores o atributos. En cada terminal / hoja asigna
una etiqueta de clase, generalmente la clase mayoritaria de todas las instancias
que alcanzan esa hoja en particular.

De regresión, cuando las variables son continuas, numéricas que tienen un


número in nito

Árbol de regresión

de valores en un intervalo cualquiera. El árbol predice el valor del objetivo


mediante la construcción de un modelo basado en uno o más predictores
(variables numéricas y categóricas).  El diagrama del árbol seleccionado tiene
cuatro hojas, el color de las hojas representa el valor de respuesta predicho,
que es el promedio observado para las observaciones en esa hoja. El nodo 4
tiene el valor de respuesta más bajo y el nodo 3 tiene el valor más alto.

Según los datos a tratar nos podemos encontrar con:

Valores binarios. Solo es posible una división, se generaran dos ramas a partir
del nodo a dividir.
Valores categóricos (Nominales). Son cualitativos no ordenados y se expresan
de dos maneras, la primera es una división de múltiples vías que usa tantas
particiones como valores distintos. La segunda es usar una división binaria para
obtener los valores en dos subconjuntos. Podemos realizar la división a través
de (xi ∈ C) hasta probar todos los valores. Por ejemplo: color de piel, sexo, etc.

Valores continuos. Son valores numéricos que tienen características


cuantitativas. Con ellos se pueden realizar operaciones numéricas regulares,
medias, desviaciones, etc. También se pueden expresar utilizando divisiones
binarias, siendo la condición del tipo (xi ≤ r).

Valores ordinales: Son similares a los nominales ya que son categóricos y


cualitativos, la diferencia radica en que tienen información para ordenarlos. Se
pueden expresar como divisiones binarias o de múltiples vías, pero es
fundamental no alterar la propiedad de orden de los valores. Por ejemplo: tipo
de neumáticos en función de la velocidad (Q, R, S, T, H, V, ZR,…).

Cuando tratemos con árboles utilizaremos frecuentemente estos conceptos:

Costo. Se re ere a dos conceptos diferentes: el costo de medición para


determinar el valor de una determinada propiedad (atributo) exhibida por el
objeto y el costo de clasi cación errónea al decidir que el objeto pertenece a la
clase X cuando su clase real es Y.

Sobreajuste (Over tting).  Se produce cuando los datos de entrenamiento son


pocos o contienen incoherencias. Al tomar un espacio de hipótesis H, se dice
que una hipótesis h ∈ H  sobreajusta un conjunto de entrenamiento C si existe
alguna hipótesis alternativa h’ ∈ H tal que h clasi ca mejor que h’ los elementos
del conjunto de entrenamiento, pero h’ clasi ca mejor que h el conjunto
completo de posibles instancias.

Poda (Prunning). La poda consiste en eliminar una rama de un nodo


transformándolo en una hoja (terminal), asignándole la clasi cación más común
de los ejemplos de entrenamiento considerados en ese nodo.

La validación cruzada. Es el proceso de construir un árbol con la mayoría de los


datos y luego usar la parte restante de los datos para probar la precisión del
árbol.

Operativamente un árbol de decisión debe manejar características ordenadas y


desordenadas, y después, dividir el conjunto de datos en subconjuntos según sus
características, tratando de que sean lo su cientemente pequeños para que contengan
datos que caigan dentro de una clase o etiqueta, por ejemplo: Femenino o Masculino. La
división se realiza en cada nodo no terminal, a través de una función discriminante,
óptima localmente, hasta que todas las muestras en el nodo pertenezcan a una clase o
hasta que se cumpla un criterio de detención, esto es, una división binaria recursiva.

Generalizando, la construcción de un árbol de decisión se basaría en:

La selección de atributos. La selección implica buscar todas las combinaciones


posibles de atributos en los datos para encontrar qué subconjunto de ellos
funciona mejor para la predicción. Existen distintas opiniones en cómo abordar
esta selección debido a que diferentes métodos dan diferentes resultados. La
proposición sería, utilizar la ganancia de información, el ratio de ganancia o el
algoritmo RELIEF y como resultado el valor promedio de todos los métodos
utilizados.

El conjunto de preguntas binarias. En la entrada tendremos un vector x =


(x1,x2,…xn), que puede contener variables discretas o continuas. Sabiendo que
la división del nodo depende de una sola variable, el conjunto de preguntas (P)
deberían de ser:
Si la variable xi es continua, entonces P contiene las preguntas de la
forma { Es xi ≤ r }, donde r ∈ ℜ

En caso contrario es categórica, P contiene las preguntas de la


forma {¿ xi ∈ C ? }, donde C es cualquier subconjunto de {y1,y2,…yn}

El método usado para dividir los nodos. Cada método, función discriminante,


debe determinar cuál es la mejor forma de dividir los datos en cada nivel.

La técnica para parar el crecimiento del árbol o podarlo. Una idea sería
controlar el error de clasi cación (con el índice de Gini o la Entropía), en el
conjunto de datos de prueba, de manera que se detendrá cuando el índice
seleccionado comience a aumentar.

La asignación a cada terminal / hoja de un valor de la variable de respuesta


(regresión) o a una clase (clasi cación).

El tratamiento de los valores perdidos (faltan). Es posible que algunos de los


valores de las características no estén, en ese caso tenemos que llenarlos de
alguna forma, la siguiente puede servir:
Si el valor que falta es de una característica ordenada, la rellenamos
con el valor medio de la muestra de esa característica.
Si es una característica no ordenada, la rellenamos con el valor más
probable de esa característica del conjunto de datos.

Esta información se almacena para que se pueda realizar el mismo llenado


para el conjunto de prueba.

La complejidad en la creación de un árbol de decisión óptimo es: NP-Completa. En


1.976 Laurent Hya l y Ronald L. Rivest lo demuestran para un árbol binario mínimo. En
1.991, por lados separados, G. E. Naumov lo hace desde tablas de decisión, y J.Murphy y
R. L. McCraw también lo hacen para árboles con el menor número de nodos y en 1.995
Thomas Hancock, Tao Jiang, Ming Li y John Tromp terminan de con rmarlo.

Cómo construimos un árbol básico. Antes de entrar a construir un árbol de decisión es


necesario tener en cuenta que, debemos centrarnos en encontrar atributos que
devuelvan la mayor Ganancia de información, es decir, las ramas más homogéneas. Una
rama con entropía 0 es un nodo terminal / hoja, una rama con entropía mayor a 0
necesita una división adicional. Establecer los métodos y técnicas que emplearemos
(poda, validación cruzada, etc.) o seleccionar una herramienta que nos permita acelerar
nuestro trabajo por ejemplo arboles-de-decisión WEKA (Waikato Environment for
Knowledge Analysis).
 

Los datos nos llegan en un chero ARFF, representados por una variable (Atributo) y su
valor. A partir de aquí comenzamos a trabajar desde un nodo primario:

1. ¿Cuál atributo usamos como raíz?.

2. Dibujamos una rama para cada valor posible.

3. En los nuevos nodos se vuelve a realizar recursivamente la misma pregunta (2).

4. Paramos la recursión de una rama si todos sus valores tienen el mismo


atributo.

En el ejemplo, los datos son los que aparecen en numerosas publicaciones (jugar al tenis,
futbol,…). La representación grá ca puede ser la más adecuada.

Las reglas de decisión quedarían así:

R1 Si (cielo=soleado) y (Humedad=Normal) jugar.

R2 Si (cielo=soleado) y (Humedad=Alta) No jugar.

R3 Si (cielo=Nublado) jugar.

R4 Si (cielo=Lluvioso) y (Viento=Fuerte) No jugar.

R5 Si (cielo=Lluvioso) y (Viento=Débil) jugar.

Clasificación según el tipo de función discriminante.


Los árboles de decisión pueden clasi carse en grupos según el tipo de función
discriminante aplicada en los nodos no terminales:

Univariable. Univariado signi ca que un nodo interno se divide de acuerdo con


el valor de un solo atributo. En cada nodo la función solo puede realizar una
serie de divisiones ortogonales en base al eje de xi (hiperplanos de ejes
paralelos), dando lugar a árboles más grandes y una generalización pobre.
Existen dos características intrínsecas en este tipo de árboles:
1. Se pueden obtener árboles complicados o inexactos si el límite de
decisión del conjunto de datos no es ortogonal a los ejes de
características.
2. El costo computacional aumenta si los atributos son de tipo
numérico o si hay un gran número de características.

Ejemplo de algunos algoritmos que los tratan son ID3, CART o C4.5.

Multivariable u Oblicuo. Son árboles cuyos hiperplanos de separación no son


necesariamente paralelos a los ejes, pudiendo tener una dirección arbitraria.
Suelen ser más pequeños y, en ciertos casos, tienen una mejor precisión de
clasi cación que los univariados, sin embargo, la característica a interpretar
desaparece.

Cada prueba puede basarse en más de una característica. El algoritmo de


construcción no selecciona el mejor atributo sino la mejor combinación lineal de
los atributos. La combinación lineal consiste en la multiplicación de pesos con
cada característica xi , así que básicamente hay dos operaciones principales en
los algoritmos multivariable:

Selección de características para determinar cuál de ellas usar.


Los pesos wi de esas características. La decisión se podría ver como
un perceptrón de una sola capa y así, wi y w0 , se pueden
determinar entrenando un perceptrón con salida 0/1, haciendo una
división binaria.

Debido a que las características, en la división lineal combinada, se multiplican


por los coe cientes, debemos convertir las características simbólicas en
características numéricas, al realizar esta conversión, todas las características son
numéricas y por tanto todas las divisiones son binarias.

Por otro lado, si las características en un árbol mult-ivariable vienen


desordenadas, debemos convertir cada característica desordenada i, en una
representación numérica y así poder realizar una combinación lineal de las
mismas. Por lo tanto, la característica i no ordenada la convertiremos en un
conjunto de características múltiples como i1, i2, i3 … en donde ij = 1 si xi toma el
valor ajy 0 en caso contrario.
Al nal del anterior preproceso, hemos convertido las características (algunas
ordenadas algunas desordenadas) x1, x2, … xm en características ordenadas
como x1, x21, x22, x23 .. x2m, x31, x32, x33 .. x3m, x4, .., xm donde x1, x4 están
ordenadas y  x2j, x3j … son características no ordenadas. Se debe tener en cuenta
que la conversión anterior aumentanda la complejidad computacional. Existen
dos tipos básicos:

Lineal. Utiliza funciones discriminantes lineales. En cada nodo se


divide el espacio de entrada en dos vías
No lineal. Utiliza funciones discriminantes no lineales. En cada nodo
se divide el espacio de entrada arbitrariamente, a costa de una
mayor complejidad y un mayor riesgo de sobrealimentación.
Algunos algoritmos utilizan un perceptrón multicapa.

 Omnivariados. Es una proposición realiza por Olcay Taner Yıldız y Ethem


Alpaydın en 2.001. En este caso los nodos pueden ser univariados,
multivariados lineal o no lineales, dependiendo del resultado de las pruebas
estadísticas comparativas de precisión, lo que hace coincidir la complejidad del
nodo con el sub-problema de nido por los datos que llegan a ese nodo. Dicha
arquitectura libera al diseñador de elegir el tipo de nodo apropiado, haciendo la
selección del modelo automáticamente en cada nodo. Pero tiene un tiempo de
entrenamiento superior.

Métodos de división.
La división consiste en seleccionar la variable más adecuada para fraccionar el árbol, esta
pequeña toma de decisión afecta mucho al rendimiento del árbol y no es trivial. Después
de esta selección, se toma el valor de la variable que proporciona la mejor división, esto
se hace para llegar a las diferentes clases con el menor número de divisiones y errores.

Las divisiones se aplican en el contexto de los nodos o sus conjuntos de datos, de modo
que la división de un nodo y la división de los datos de un nodo son dos nombres para la
misma operación. El objetivo nal es determinar la variable correcta asociada con el
umbral correcto para maximizar la homogeneidad de los subgrupos / ramas. Los
algoritmos empleados se basan en gran medida en métodos estadísticos y de
probabilidad. Los dos métodos básicos son:  el propuesto en 1.984 por Leo Breiman que
se basa en una combinación lineal de características o el de Quinlan, en 1.986, basado en
la división por una característica.

Univariados. Existen varios métodos para el tratamiento de estos árboles según:

El origen de la medida: teoría de la información, dependencia y distancia.

La estructura de la medida: criterios basados en la impureza y normalizados, y


criterios binarios.

Los más utilizados son los basados en la impureza, están representados por los que
cumplen con:

dada una variable aleatoria x con n valores discretos, distribuidos según V = (v1, v2, …,
vn), una medida de impureza es una función φ: [0, 1] n → R que cumple las siguientes
condiciones:

φ (V) ≥0

φ (V) es mínimo si ∃i tal que el componente vi = 1.

φ (V) es máximo si ∀i, 1 ≤ i ≤ n, vi = 1 / n.

φ (V) es simétrico con respecto a los componentes de V.

φ (V) es diferenciable en todas partes, en su rango.

Ganancia de información.

Índice de Gini.

Ratio de error. Es el porcentaje de ítems mal clasi cados. Esta medida no tiene
buen poder discriminador debido a: si que tenemos un sistema de dos clases,
en el que y es la clase mayoritaria no solo en X, sino en todas las particiones
disponibles de X. La tasa de error considerará a todas esas particiones de igual
preferencia.

Índice de probabilidad Chi-cuadrado χ2 . Es un método estadístico que mide


la independencia entre una distribución observada y otra teórica. Trata de
probar la hipótesis nula de que dos variables son independientes, es decir, la
ocurrencia de un valor de una variable no induce la ocurrencia del valor de otra.
En los árboles de decisión, entre la variable de la división y la variable de la
clase.

DKM. Es un método basado en impurezas diseñado por Dietterich, Kearns y


Mansour. Para clases con atributos binarios se ha demostrado que este método
crea árboles más pequeños que para los construidos con C4.5.

Distancia normalizada de la información. Es una proposición de Ramón


López de Mántaras. La distancia entre un atributo Y y una regla de división S, 
es la suma de las dos entropías condicionales que luego se normaliza
dividiendo por su entropía conjunta. Resuelve los problemas de partición
desequilibrada de ganancia de información en ID3 y la relación de ganancia en
C4.5.

Criterios binarios.

Twoing. Es un medidor de impureza puro, alternativo a Gini. Trata


problemas de múltiples clases según criterios de solo dos de ellas,
las agrupa en dos superclases y después realiza un análisis de las
mismas. Cuando el número original de clases era grande y se
trataba de veri car todas las posibilidades provocaba un colapso
combinatorio. Esta problemática generó la incorporación de una
mejora: En lugar de analizar todas las divisiones para todos los
grupos de clases, propusieron un procedimiento (criterio de
dosi cación) para determinar las superclases óptimas para cada
posible división demostrando que para una división binaria dada, se
obtiene una disminución máxima de impureza cuando una
superclase contiene la mayoría de las clases y la segunda las clases
restantes. Este resultado permite mantener la complejidad
computacional baja mejorando resultados.
Dosi cación, Este criterio está en CART como una alternativa al
índice de Gini.
ORT Medida de la ortogonalidad. Propuesto por Usama Fayyad e
Keki Irani en 1.992, miden el ángulo del coseno entre los vectores de
probabilidad de clase de las dos particiones. Si la división pone
todas las instancias de una clase dada en una partición pero no en
la otra, entonces los dos vectores son ortogonales y el coseno es 0.
Para un conjunto S, de ejemplos de entrenamiento, y una prueba τ
que induce una partición binaria en Sτ y S-τ  teniendo los vectores
de clase V1 y V2, respectivamente, la medida de ortogonalidad se
de ne como: ORT (τ, S) = 1 − cosθ (V1, V2).

Otras medidas de los vectores: Distancia Kolmogorov-Smirnov,


Hellinger y Divergencia Jensen-Shannon.

AUC (Area under the ROC Curve). Selecciona el atributo que obtiene el área
máxima bajo la envoltura convexa de la curva ROC, este criterio supera en
precisión a otros métodos. Es importante tener en cuenta que no realiza una
comparación entre la impureza del nodo padre y la impureza ponderada de los
hijos después de la división. Representa la probabilidad de que un ejemplo
positivo, elegido al azar, se clasi que correctamente con mayor seguridad que
una muestra negativa elegida al azar. ROC (Receiver Operating Characteristic)
genera un grá co que muestra el rendimiento de un modelo de clasi cación en
todos los umbrales de la misma. Una de las maneras fáciles de calcular el valor
AUC es usar la regla trapezoidal, suma todos los trapecios debajo de la curva.

SSV (Separability of Split Value). Es un criterio de separabilidad que puede


aplicarse a diferentes algoritmos de clasi cación. Está diseñado para descubrir
las mejores divisiones de características continuas o las mejores combinaciones
de valores simbólicos de características discretas. Es una alternativa a los
criterios más utilizados de la medida de la ganancia de información o el índice
de Gini. Re eja la idea de que es ventajoso dividir pares de vectores que
pertenecen a diferentes clases, mientras que se deben evitar los pares de
vectores de la misma clase.

Multivariados. En la división multivariable varios atributos pueden intervenir en la


división de un solo nodo. El reto en este tipo de árboles es encontrar el mejor método y la
mayoría de ellos se basan en la combinación lineal de los atributos de entrada. Encontrar
la mejor combinación lineal se puede realizar utilizando una búsqueda codiciosa / voraz,
con programación lineal, análisis discriminante lineal y otros.

Algoritmos aplicados en los árboles de decisión.


Aunque los métodos son diferentes para los diferentes algoritmos, todos ellos tienen la
siguiente premisa, ser “voraces”, es decir, encontrar una variable que proporcione la
máxima ganancia de información o divida los datos de la manera más homogénea.

Los algoritmos que construyen el árbol lo realizan para tratar un conjunto de datos con el
objetivo de reducir el error de generalización, pero también se pueden de nir otras
funciones como reducir el número de nodos o la profundidad. La elaboración de un árbol
óptimo tiene un nivel de complejidad alto (NP-completa), es una labor difícil, pero viable
para pequeños problemas. En consecuencia, se requieren métodos heurísticos para
resolver el problema el más comun es de arriba hacia abajo TDIDT (Top-Down Induction
of Decision Tree) como CLS, ID3, C4.5 entre otros.

En Redes neuronales.
En las redes neuronales los árboles se tratan como un problema de optimización
anidado. En los nodos, el algoritmo de gradiente descendente se usa para encontrar wi (y
w0) que reduce el error cuadrático medio y, por lo tanto, encuentra una buena división
para los dos grupos de distintas clases. Para la optimización externa se podrá utilizar
cualquier método que encuentre la mejor división de clases en dos grupos.

Para el trabajo en los nodos se puede utilizar una red neuronal separada para cada nodo
del árbol, con tres tipos diferentes de modelos: Perceptrones lineales (multivariados
lineales), perceptrones multicapa (multivariados no lineales) y una combinación de ellos.

Modelo de Perceptrón Lineal. Los xi corresponden a los valores normalizados


de los atributos para cada instancia, los wi corresponden a los coe cientes de
los atributos y –w0 es un desplazamiento independiente de la entrada. El
entrenamiento de esta red se realiza mediante un algoritmo del gradiente
descendente estocástico para reducir el criterio de error de mínimos cuadrados
(sig es la función sigmoidea o logística). Tomamos (xT, dT) como datos de
entrenamiento, donde xT es la enésima instancia de t y dT es la salida deseada
para esa instancia que es 1 para el hijo / nodo izquierdo y 0 para el hijo / nodo
derecho. yT es la salida real encontrada por la fórmula:

Modelo de Perceptrón Multicapa. La salida yT se encuentra como:

Los parámetros whi y Th, son respectivamente los pesos de la primera y la


segunda capa. H es el número de unidades ocultas y se toma d/2, como la mitad
del número de entradas.

Modelo Hibrido. Pensamos que lo mejor puede ser encontrar una forma de
combinar métodos lineales y no lineales, debido a que los métodos no lineales
tienen demasiados parámetros y son propensos a sobreajuste y no son
interpretables. La forma de trabajar sería entrenar en cada nodo un perceptrón
tanto lineal como no lineal y utilizar una prueba estadística para veri car si
existe una diferencia de rendimiento signi cativa entre los dos. Si el
rendimiento del perceptrón multicapa es mejor, está claro, elegimos ese
modelo y en caso contrario el del perceptrón lineal. De todas formas el % lo
marcaremos a nuestra elección, teniendo claro que el perceptrón lineal es el
más simple.

Evolución de los algoritmos (2.016).


 

Árboles de decisión, Algoritmos, Modelos y Herramientas

Año Acrónimo Autor Comentario


Árboles de decisión, Algoritmos, Modelos y Herramientas

Año Acrónimo Autor Comentario


Automatic Interaction Detection. Su idea más
importante fue especi car una variable
independiente para una regresión lineal y buscar
divisiones que optimizasen el ajuste de la regresión
en las ramas. En ocasiones, una variable de entrada
John A. Sonquist
domina la variable dependiente, de modo que los
1.963 AID y James N.
datos solo se dividen un poco más. Aplicando la
Morgan
técnica de regresión eliminan ese efecto dominante
y continúan con la división.  No incluyen el
tratamiento de los valores perdidos. En 1.971 se
publicó la tercera versión denominándose SEARCH
que fue mantenida hasta 1.996.
Concept Learning System. Son algoritmos diseñados
en base a la inducción, es el precursor de ID3. Hasta
la versión CLS-8 construyen árboles binarios,
mientras que CLS-9 permite multi criterio. Es el
trabajo pionero en la inducción descendente de
árboles que intenta reducir el costo de clasi car un
objeto, utiliza una estrategia de búsqueda similar al
minimax. En cada etapa, explora el espacio de
1.966 CLS 1-9 Earl B.
posibles tomas de decisiones a una profundidad ja,
Hunt, Janet
elige una acción para reducir el costo en este espacio
Marin y Philip J.
limitado y luego se mueve hacia abajo en el árbol.
Stone
Dependiendo de la profundidad de búsqueda
anticipada elegida, CLS puede requerir una cantidad
sustancial de cómputo. Requiere que cada
propiedad utilizada para describir objetos tenga solo
valores de un conjunto especí co.
Exploration of Links and Interactions through
J. C. Cellard,B.
Segmentation of an Experimental Ensemble. Es un
1.967 ELISEE Labbé y G.
método binario para variables dependientes
Savitsky
categóricas.
Árboles de decisión, Algoritmos, Modelos y Herramientas

Año Acrónimo Autor Comentario


L. I. Press, M. S. Interactive Data Exploration and Analysis.
1.969 IDEA Rogers y G. H Herramienta para el crecimiento de árboles que
Shure permite multicriterio.
J.N. Morgan y THeta AID. Es una ampliación de AID para resultados
1.972 THAID
R.C. Messenger categóricos utilizando el criterio Theta.
Es una versión extendida de AID para variables de
1.972 MAID M.W. Gillo
resultado cuantitativas multicriterio.
Chi-square Automatic Interaction Detector. Es una
evolución mejorada de AID y THAID con supervisión
estadística. El criterio para dividir está basado en χ2 y
para terminar el proceso se requiere de nir de
Gordan V. Kass
1.980 CHAID antemano un umbral. Utiliza el ajuste de Carlo E.
y Doug Hawkins
Bonferroni para el número de valores categóricos de
la variable de entrada, mitigando así el sesgo hacia
entradas con muchos valores. También incluye el
proceso de los valores perdidos.
Árboles de decisión, Algoritmos, Modelos y Herramientas

Año Acrónimo Autor Comentario


Dichotomiser Iterativo 3. Continúa el concepto de
CLS. Comienza con la selección del mejor atributo
para probar en la raíz del árbol. Para encontrar el
mejor atributo, cada atributo de instancia se pone en
una prueba estadística para determinar qué tan bien
clasi ca los ejemplos de entrenamiento. La mejor
característica se selecciona y se usa como un nodo
de prueba. Luego se crea un hijo del nodo raíz para
cada valor posible del atributo a, es decir, dos hijos
para entidades ordenadas como xi < a y xi > a, y n
1.983-
ID3 hijos para una entidad no ordenada como xi = a1, xi
79
J. Ross = a2 … xi = an , donde n es el número de diferentes
Quinlan valores posibles de la característica xi. Todo el
proceso se repite recursivamente con los ejemplos
de capacitación asociados con cada nodo secundario
para seleccionar el mejor atributo para probar en
ese punto del árbol. Es un algoritmo que siempre va
hacia adelante y se le denomina de búsqueda
“voraz”. Requiere que cada propiedad utilizada para
describir objetos tenga solo valores de un conjunto
especí co. .

Es una generalización de ID3 y de CLS, pero permite


propiedades que tienen valores enteros no
1.983 ACLS restringidos, este tipo de capacidad ha permitido
aplicarlo a tareas difíciles como el reconocimiento de
A. Patterson y T.
imágenes.
Niblett
Árboles de decisión, Algoritmos, Modelos y Herramientas

Año Acrónimo Autor Comentario

Permite atributos con valores continuos (reales). En


lugar de insistir en que las clases se separen permite
formar una jerarquía, de modo que una clase puede
1.984 ASSISTANT ser una división más na de otra. Incluye otros
Igor Kononenko,
algoritmos para elegir un conjunto de entrenamiento
Ivan Bratko y
“bueno” de los objetos disponibles. Se ha utilizado en
Egidija Roškarr
áreas de la salud con resultados positivos.
Árboles de decisión, Algoritmos, Modelos y Herramientas

Año Acrónimo Autor Comentario


Classi cation and Regression Tree. Fue primer
algoritmo de árbol de decisión oblicuo. Construye
árboles binarios recursivos de clasi cación o de
regresión multivariable lineal. Originalmente se
aplicaba sólo para la predicción de los datos
univariados. Cuando la variable es :
Binaria, cada valor de ne un grupo para una
división.
Discreta, todas las combinaciones de los
grupos son asumidas (para un valor n, se
prueban los subconjuntos (2N – 2) /2).
Continua, todos los posibles puntos de corte
se prueban (para n registros, como máximo
1.984 CART se prueban  n – 1 puntos de corte).
Leo Breiman,
Jerome Su misión es producir no uno, sino una secuencia de
Friedman, árboles podados anidados, todos los cuales son
Richard Olshen árboles óptimos candidatos. El árbol de “tamaño
y Charles Stone correcto” se identi ca al evaluar el rendimiento
predictivo de cada árbol. Los datos se manejan tal
como vienen, no se ltran. Los árboles crecen a un
tamaño máximo sin regla de detención y luego se
podan mediante la poda complejidad de costo. La
siguiente división a ser eliminada es la que menos
contribuye al rendimiento general del árbol en los
datos de entrenamiento (y se pueden eliminar más
de una a la vez).
Árboles de decisión, Algoritmos, Modelos y Herramientas

Año Acrónimo Autor Comentario

CART Linear Combination. Es una versión de CART


donde el conjunto de divisiones permitidas se amplia
para incluir todas las combinaciones lineales
divididas. Pero resolver este conjunto de
combinaciones lineales utilizando una búsqueda
heurística determinista es costoso computacional. En
L. Breiman, cada nodo encuentra iterativamente valores óptimos
J.Friedman, R. para cada uno de los coe cientes. Los hiperplanos se
1.984 CART-LC
Olshen y C. generan y prueban hasta que los bene cios
Stone marginales se vuelven más pequeños que una
constante dada.

Forma de todas las combinaciones ineales:

RECursive Partition and AMalgamation. Es un


método para construir árboles de regresión a partir
de datos que permite el tratamiento explícito de una
Antonio Ciampi,
gran variedad de variables de respuesta. Su enfoque
Roxane du
de clasi cación encuentra clases que se describen en
1.988 RECPAM Berger, H.Gerry
términos de algunas de las variables, de tal manera
Taylor y
que la distribución conjunta de todas las variables es,
JohanneThi ault
al menos aproximadamente, homogénea dentro de
las clases y distinta entre clases. Trata
simultáneamente variables categóricas y continuas
Árboles de decisión, Algoritmos, Modelos y Herramientas

Año Acrónimo Autor Comentario

Es un algoritmo que combina CART y LDA (Análisis


Discriminante Lineal). El análisis discriminante es el
método clásico para predecir la pertenencia a un
grupo en función de las características predictivas.
1.988 FACT
Wei-Yin Loh y FACT puede utilizar más de una función

Nunta discriminante y usa un algoritmo de costo de


Vanichsetakul clasi cación errónea diferente a CART y basado en
las funciones discriminantes.

Es una variante de ID3, se basa en la reducción de la


entropía media para seleccionar el atributo que
genera cada partición (cada nodo del árbol),
seleccionando aquél con el que la reducción es
1.988 CN2 máxima. Los nodos del árbol están etiquetados con
Peter Clark y nombres de atributos, las ramas con los posibles
Tim Niblett valores del atributo, y las hojas (Terminales) con las
diferentes clases. Permite clasi car ejemplos con
atributos que toman valores continuos.
Multivariate Adaptive Regression Splines (MARS),
nombre inicial que se transforma en Earth como
herramienta de libre distribución. Es una técnica de
regresión que funciona de manera similar a los
árboles de regresión, pero utiliza funciones de base
1.988 lineal en lugar de funciones escalonadas. Crea
Earth J. H. Friedman(F. múltiples modelos de regresión en todo el rango de
2.018 Nicolls,  S. valores del predictor/atributo, lo hace mediante la
Milborrow, partición de los datos y ejecuta un modelo de
T.Hastie, regresión en cada partición diferente. Los términos
R.Tibshirani + se eliminan en orden creciente de reducción de
111 más) errores. La métrica de error es la estadística de
validación cruzada generalizada (GCV).
Árboles de decisión, Algoritmos, Modelos y Herramientas

Año Acrónimo Autor Comentario


Es una mejora de CHAID: Admite una heurística más
completa para encontrar, en cada nodo, la forma
David Biggs, óptima de agrupar las categorías de cada predictor.
Exhaustive
1.991 Barry De Ville y Realiza una aproximación más adecuada para el
CHAID
Ed Suen factor de corrección de Bonferroni que evita la
discriminación de variables nominales con un gran
número de categorías.
Multivariate adaptive polynomial synthesis. Sigue la
estrategia y muchas características de MARS, la
diferencia básica es la utilización de polinomios
1.991 MAPS Andrew globales en lugar de splines. Proporciona una opción
R. Barron y para restringir el orden de interacción de los
Xiangyu Xiao términos candidatos para que no sea mayor que un
límite especí co.
Linear Machine Decision Trees. Es un algoritmo
oblicuo / multivariado que construye una máquina
lineal para dividir cada nodo. La máquina es un
conjunto de k funciones discriminantes lineales
combinadas en una sola máquina para clasi car los
objetos de datos en una de las k clases del problema
que se está resolviendo.
Para hacer que los modelos fuesen lo más simples y
1.991 LMDT
Paul E. Utgo y precisos posibles incorporaron una técnica para
eliminar variables durante los procesos de
Carla E. Brodley
aprendizaje. Propusieron repetir el entrenamiento
después de la eliminación de la característica que
menos contribuye a la discriminación. Las mejores
soluciones se registran y las nuevas deben
compararse con ellas para estimar si los resultados
no se degradan.
Árboles de decisión, Algoritmos, Modelos y Herramientas

Año Acrónimo Autor Comentario

Construye modelos basados en árboles pero,


mientras que los árboles de regresión tienen valores
en sus hojas, los árboles que M5 construye pueden
tener modelos lineales multivariados. Puede abordar
1.992 M5
J. Ross tareas con una dimensión muy alta, cientos de
Quinlan atributos, superior a CART y MARS

Es un árbol de decisión de un nivel. Tiene un nodo


interno que está conectado directamente a los
nodos de terminación. Un solo nodo raíz decide
Decision  
1.992 cómo clasi car las entradas según una sola entidad.
Stump
Wayne Iba y Pat Cada hoja representa un valor de entidad posible, la
Langley etiqueta de clase que debe asignarse a las entradas
cuyas características tienen ese valor.
Es una extensión de CART. Busca la mejor división
univariada así como la mejor división oblicua, y solo
emplea la división oblicua cuando mejora la división
univariada. Utiliza tanto una búsqueda heurística
determinista (CART) para encontrar el óptimo local y
Sreerama K. una búsqueda no determinista (SADT) para escapar
1.993 OC1
Murthy, Simon de óptimos locales. Durante la búsqueda
Kasif, Steven determinista perturba los coe cientes del hiperplano
Salzberg y secuencialmente (de la misma manera que lo hace
Richard Beigel CART) hasta que no se obtiene una ganancia
signi cativa de acuerdo con una medida de
impureza.
Árboles de decisión, Algoritmos, Modelos y Herramientas

Año Acrónimo Autor Comentario


Simulated Annealing of Decision Trees. Crea árboles
oblicuos-multivariado de forma aleatoria. Para
encontrar buenos valores para los coe cientes del
hiperplano, en cada nodo de un árbol, coloca
primero un hiperplano en una ubicación canónica, y
David Heath,
luego perturba iterativamente todos los coe cientes
1.993 SADT Simon Kasif y
en pequeñas cantidades aleatorias. Si bien el uso de
Steven Salzberg
la aleatorización le permite evitar algunos mínimos
locales, por otro lado pierde e ciencia al ser más
lento que CART-LC, LMDT o OC1, a veces considera
decenas de miles de hiperplanos en un solo nodo
antes de que nalice un ciclo.
Un árbol de decisión de un nivel que clasi ca
instancias usando solo un atributo. Los valores que
1.993 T1 Holte
faltan se tratan como un “valor especial”. Soporta
tanto atributos continuos como nominales.
Es una extensión del algoritmo ID3. Se basa en la
utilización del criterio de ratio de ganancia. En el
método se consigue evitar que las variables con
1.993 C4.5 mayor número de posibles valores salgan
J. Ross bene ciadas en la selección. Incorpora  el  MLPC
Quinlan (Multi-Level Pruned Classi er) como algoritmo de
poda.
Árboles de decisión, Algoritmos, Modelos y Herramientas

Año Acrónimo Autor Comentario


Minimum Message Length. La longitud mínima de
mensaje es una teoría de la inferencia inductiva,
donde el modelo preferido es el que minimiza la
longitud de mensaje esperada. En 1.968  Wallace y
1.968 David Boulton desarrollaron el programa “SNOB”
MML para la clasi cación no supervisada que fue la
1.993 Jon D. Patrick y primera aplicación de esa teoría. En 1.993 Patrick y
Christropher S. Wallance lo codi can para árboles de decisión,
Wallace haciendo que no se sobredimensionen, sean poco
profundos, no necesiten poda y sean excelentes para
predicciones probabilísticas.
Algoritmo de inducción para la clasi cación y
predicción que convierte los atributos de valor real
en intervalos utilizando herramientas
Wolfgang Müller estadísticas. Los árboles se recortan
1.994 CAL5
y Fritz Wysotzki automáticamente con la ayuda de un umbral para
las probabilidades estimadas de una clase en un
intervalo. Por medio de este umbral el usuario
puede controlar la complejidad del árbol.
Robust Linear Decision Trees. Es un método que
puede inducir árboles de decisión oblicuos, el
método se basa en una función discriminante lineal
para descubrir los mejores puntos de división.
Resuelven iterativamente un problema de
1.994 RLDT
optimización utilizando gradientes. Su función tiene
George H. John la rma:
Árboles de decisión, Algoritmos, Modelos y Herramientas

Año Acrónimo Autor Comentario


RIpple-DOwn Rule learner. Es un generador de reglas
superior a PART y JRip. El algoritmo genera primero
la regla predeterminada y luego genera las
excepciones de la misma, junto con la menor tasa de
error. En un segundo paso y de forma reiterativa,
Brian R. Gaines
1.995 Ridor genera las “mejores” excepciones para cada
y Paul Compton
excepción. Por lo tanto, realiza una expansión tipo
árbol de excepciones. Las excepciones son un
conjunto de reglas que predicen clases distintas de
las predeterminadas. IREP se usa para generar las
excepciones,.
Es un algoritmo de aprendizaje supervisado, está
compuesto de distintos métodos que hacen uso de
áboles de decisión como elementos básicos. Permite
la construcción de un “bosque de árboles” al azar,
Random
1.995 todos ligeramente diferentes. Es e ciente para
forest
estimar los datos faltantes y al Igual que REPTree,
Tin Kam Ho elige el mejor árbol de los creados. Es un algoritmo
muy preciso que se puede usar tanto para regresión
como para clasi cación.
Árboles de decisión, Algoritmos, Modelos y Herramientas

Año Acrónimo Autor Comentario


El “Adaptive Boosting”, es el primer algoritmo
práctico de refuerzo. Se centra en los problemas de
clasi cación y pretende convertir un conjunto de
clasi cadores débiles en uno fuerte. El algoritmo se
puede usar para reducir signi cativamente el error
de cualquier algoritmo de aprendizaje que genere de
forma consistente clasi cadores cuyo rendimiento
sea un poco mejor que con el azar. La ecuación nal
para la clasi cación se puede representar como:

1.995 AdaBoost
Yoav Freund y Donde:
Robert E.
Schapire ht (x) es la salida del clasi cador débil t para la
entrada x

ωtes el peso asignado al clasi cador.

ωt se calcula de la siguiente manera: ωt = 0.5 *


ln ((1 – E) / E). El peso del clasi cador se basa en
la tasa de error E.

Genera conjuntos de entrenamiento aleatoriamente


1.996 BAGGING y por lo tanto los clasi cadores se pueden calcular
en paralelo.
Leo Breiman
Árboles de decisión, Algoritmos, Modelos y Herramientas

Año Acrónimo Autor Comentario


Supervised Learning in Quest. Es un clasi cador que
puede manejar atributos numéricos y categóricos.
Utiliza una técnica de clasi cación previa que se
integra con una estrategia de crecimiento, en un
primer nivel, para permitir la clasi cación de los
1.996 SLIQ Manish Mehta,
conjuntos de datos residentes (memoria o
Rakesh Agrawal
almacenamiento). Para la fase de poda utiliza un
y Jorma
algoritmo que se basa en el Principio de Longitud de
Rissanen
Descripción Mínima, este algoritmo da como
resultado árboles compactos y precisos.

Es sinónimo de algoritmo escalable de inducción de


árbol de decisión multivariado.  Es un clasi cador
rápido que no se basa en el algoritmo de Hunt para
construir el árbol, sino que parte el conjunto de
datos de entrenamiento de forma recursiva,
utilizando la técnica de codicia “voraz” de primer
plano, hasta que cada partición pertenezca al mismo
 
nodo hoja o clase.
1.996 SPRINT
John Shafer,
las restricciones de memoria que imponía
Rakesh Agrawal Elimina
y Manish Mehta SLIQ. El algoritmo es la primera paralelización
escalable de un clasi cador donde todos los
procesadores trabajan juntos para construir un
modelo coherente y único. La combinación de estas
características hace que el algoritmo propuesto sea
una herramienta adaptada para la minería de datos.
Árboles de decisión, Algoritmos, Modelos y Herramientas

Año Acrónimo Autor Comentario

Probabilistic linear trees. Los árboles lineales


probabilísticos surgen de una combinación de tres
ideas: Combinan un árbol de decisión con el criterio
de divide y vencerás, análisis lineal discriminante y la
inducción constructiva.

En cada división de un nodo se realizan dos pasos


independientes:

 1.997  LTree João Ao Gama Construcción de nuevos atributos. Son


combinaciones lineales de las características
de los existentes.
La utilización de técnicas de división
univariadas.

Se ha demostrado que se ejecuta bien en términos


de precisión y tiempo de aprendizaje en
comparación con otros sistemas multivariaticos
como CART, LMDT o OC1.

Quick, Unbiased, E cient, Statistical Tree. Tiene un


sesgo insigni cante respecto de los árboles de
clasi cación basados en algoritmos de búsqueda
exhaustivos, ya que tienden a sesgarse hacia la
selección de variables que permiten más divisiones.
1.997 QUEST

Wei-Yin Loh y La forma de selección es similar a la del método


Yu-Shan Shih FACT, pero produce divisiones binarias y el árbol
nal puede seleccionarse mediante una regla de
detención directa o mediante poda.

1.997 FIRM Hawkins Formal Inference-based Recursive Modeling.

1.998 CLOUDS Alsabti Multivariado


Árboles de decisión, Algoritmos, Modelos y Herramientas

Año Acrónimo Autor Comentario


Multiple additive regression trees. Múltiples árboles
de regresión aditiva es una metodología para tratar
de resolver los problemas de predicción en la
regresión y clasi cación. Es uno de los métodos
1.999 MART denominados “Boosting”. Presta resistencia a valores
J. H.
atípicos, valores perdidos y la inclusión de números
Friedman
potencialmente grandes de variables predictivas
irrelevantes que tienen poco o ningún efecto en el
resultado.
Alopex Perceptron Decision Tree. Es un inductor de
árboles de decisión oblicuo que utiliza un criterio de
división basado en el nivel de no separabilidad de las
instancias de entrada. Toma el algoritmo de un
Perceptron para estimar el número de instancias no
separables que pertenecen a cada una de las
1.999 APDT particiones binarias proporcionadas por un
Shesha Shah y
hiperplano inicial. Luego emplea el algoritmo Alopex,
P. Shanti Sastry
de K.P. Unnikrishnan y K.P. Venugopal, para ajustar
los pesos del hiperplano teniendo en cuenta la
necesidad de reducir el nuevo criterio de división en
función del grado de separabilidad de las
particiones.
Wang and
2.000 CMP Multivariado
Zaniolo
Linear Decision Trees. Crea árboles binarios
realizando un análisis discriminante en cada nodo
(con opciones de divisiones univariadas o
multivariadas y análisis lineal discriminante) y
2.000 LDT
Olcay después análisis discriminante cuadrático de las
Taner Yildiz y clases con representantes en el nodo, que se
Ethem Alpaydin agrupan en dos superclases. Sigue la idea del análisis
discriminante lineal de Fisher (FDA).
Árboles de decisión, Algoritmos, Modelos y Herramientas

Año Acrónimo Autor Comentario


Rastogi and Integra el crecimiento y la poda utilizando el costo de
2.000 PUBLIC
Shim MDL para reducir la complejidad computacional.
Classi cation Rule with Unbiased Interaction
Selection and Estimation. Programa de libre
distribución, es una versión muy mejorada de FACT:
Divide cada nodo en tantos sub-nodos como el
2.001 CRUISE número de clases en la variable de respuesta. Tiene
Hyunjoong Kim  sesgo insigni cante en la selección de variables.
y Wei-Yin Loh Tiene varias formas de lidiar con los valores
faltantes. Puede detectar interacciones locales entre
pares de variables predictoras.
Considera un conjunto de K atributos elegidos al
azar para dividirse en cada nodo. Aleatorio aquí
signi ca que cada árbol en el conjunto de árboles
tiene la misma probabilidad de ser muestreado y,
  por lo tanto, de hacer una distribución uniforme de
los árboles. Los árboles aleatorios se pueden
2.003 RandomTree Wei Fan, Haixun
generar de manera e ciente y la combinación de
Wang, Philip S. grandes conjuntos de árboles aleatorios
Yu y Sheng Ma generalmente conduce a modelos precisos.
La profundidad de cada árbol es igual a la mitad del
número total de características presentes en los
datos. No realiza podas.

Second order decision tree induction.  Tiene el


inconveniente de que la descripción de la hipótesis
para cada nodo es más compleja que el desarrollado
 2.003  SODI por otros algoritmos, pero el tamaño del árbol tiende
Jun-Youl Lee y
a ser menor, genera menos reglas de decisión, son
Sigurdur
más intuitivas y la precisión de los árboles mejora
Olafsson
respecto de otros métodos.
Árboles de decisión, Algoritmos, Modelos y Herramientas

Año Acrónimo Autor Comentario


Regression trunk approach. Combina los árboles de
regresión y el análisis de regresión múltiple de la
siguiente forma: usa árboles de regresión pequeños
2.004 RTA Elise Dusseldorp para descubrir los efectos de la interacción y
y Jacque posteriormente usa la regresión lineal múltiple para
Meulman probar los efectos de esa interacción.
Es un algoritmo que se denomina así por utilizar la
A. López-Chau, reducción de la dimensión del discriminante lineal de
Jair Cervantes, L. Fisher. Es capaz de clasi car perfectamente los
2.013 Fisher-DT López-García y objetos que pertenecen a conjuntos de datos que
F. García son linealmente separables. Utiliza un atributo
Lamont arti cial para dividir los datos de forma recursiva y
crear un árbol de decisión oblicuo.

Ejemplo computacional.
 

Clasi cador árbol de decisión con Weka

Resultados Fichero de entrenamien


En la columna de la derecha está el contenido del chero de @relation Campeonato
entrenamiento. Abajo el resultado de tratarlo con algunas @attribute outlook{Marc
funciones que implementa Weka. Existen muchas más, pero con Jorje, Valen}
el ejemplo se puede tener una idea de lo fácil que es solicitarlas. @attribute circuito
Se ha utilizado lenguaje Java, pero también se podría abordar con
numeric
otros que admitan sus librerías.
@attribute maxveloc
numeric
@attribute puntosAc
numeric
@attribute penaliza {TRU
FALSE}
@attribute gana {Si, No}
@data

MarcM, 5 285 85 FALSE,

MarcM, 4 290 90 TRUE,

Jorje, 3 286 86 FALSE,

MarcM, 5 285 85 FALSE,

MarcM, 4 290 90 TRUE,

Valen, 4 296 96 FALSE,

Jorje, 3 286 86 FALSE,

Valen, 4 280 80 FALSE,

Valen, 6 270 70 TRUE,

Jorje, 4 265 65 TRUE,

MarcM, 2 295 95 FALSE,

MarcM, 5 270 70 FALSE,

Valen, 5 280 80 FALSE,

MarcM, 5 270 70 TRUE,

Jorje, 2 290 90 TRUE,

Jorje, 1 275 75 FALSE,


Valen, 3 261 91 TRUE,
Valen, 1 294 91 TRUE,
Valen, 2 290 91 TRUE,
Valen, 6 270 70 TRUE,
Jorje, 6 265 65 TRUE,
MarcM, 7 295 95 FALSE,
MarcM, 6 270 70 FALSE,
Valen, 7 280 80 FALSE,
MarcM, 7 270 70 TRUE,
MarcM, 8 255 85 FALSE,
MarcM, 9 208 97 TRUE,
Jorje, 9 266 86 FALSE,
MarcM, 9 255 85 FALSE,
MarcM, 8 290 96 TRUE,
Valen, 9 266 96 FALSE,

Jorje, 9 266 83 FALSE,

Valen, 8 209 99 FALSE,


Valen, 9 200 75 TRUE,
Jorje, 9 255 65 TRUE,
MarcM, 8 295 92 FALSE,
MarcM, 9 270 72 FALSE,
Valen, 8 200 83 FALSE,
MarcM, 9 200 73 TRUE,
Jorje, 8 207 96 TRUE,
Jorje, 9 255 75 FALSE,
Valen, 9 211 71 TRUE,
Valen, 9 296 93 TRUE,
Valen, 9 216 91 TRUE,
Valen, 8 200 79 TRUE,
Jorje, 9 257 65 TRUE,
MarcM, 7 255 95 FALSE,
MarcM, 8 235 73 FALSE,
Valen, 9 205 80 FALSE,

MarcM, 9 240 70 TRUE,

2 respuestas
check this
29 marzo, 2019

Thanks for the wonderful article

Responder

root
3 abril, 2019

We appreciate your interest in our contents. Thank you

Responder
Deja un comentario
Tu dirección de correo electrónico no será publicada. Los campos obligatorios están
marcados con *

Comentario

Nombre *

Correo electrónico *

Web

Por favor, introduce una respuesta en dígitos:

11 + dos =

Publicar comentario

 Volver arriba

Móvil Escritorio

Você também pode gostar