Qué Es Un Árbol de Decisión-1
Qué Es Un Árbol de Decisión-1
Qué Es Un Árbol de Decisión-1
Un árbol de decisión, por lo general, comienza con un único nodo y luego se ramifica en
resultados posibles. Cada uno de esos resultados crea nodos adicionales, que se ramifican
en otras posibilidades. Esto le da una forma similar a la de un árbol.
Hay tres tipos diferentes de nodos: nodos de probabilidad, nodos de decisión y nodos
terminales. Un nodo de probabilidad, representado con un círculo, muestra las
probabilidades de ciertos resultados. Un nodo de decisión, representado con un cuadrado,
muestra una decisión que se tomará, y un nodo terminal muestra el resultado definitivo de
una ruta de decisión.
Características de un árbol de decisión
Es muy sencillo, se llama árbol de decisión porque se busca generar cuáles son las
alternativas – sean buenas o malas- de cada factor a evaluar. ¡Pon atención!
Una vez que sepas cuál es tu problemática, comienza a enumerar todos los factores que la
componen. Por ejemplo: La contratación de un nuevo proveedor. Enlista: costos, trámites,
tiempo de llegada del producto, daños mercancía, fechas de pago, etc.
Paso 2. Priorizar
Es importante comenzar a limitar tus criterios de decisión, es por ello que de la lista
anterior separes cuáles son aquellos factores que son primordiales para tu empresa. Si de la
lista de 15, puedes limitarlo a 7, quiere decir que estos criterios con mayor relevancia.
Se trata de buscar y enumerar qué de estos siete criterios son más importantes, enumera.
Por ejemplo: en el cambio de proveedor. El costo estaría como número uno, en segundo
lugar el tiempo de llegada del producto, en tercero los trámites, y así sucesivamente.
Cada uno de estos factores debe contar con fortalezas o debilidades, asegúrate de comenzar
la ramificación apartando tres o cuatro alternativas para cada criterio. Lo que buscamos es
generar supuestos de manera objetiva, si de los criterios salieron cuatro ramificaciones y de
esas cuatro salieron 12 más, esto te ayudará a profundizar en lo más conveniente. Pon
atención en este ejemplo donde se evalúa el costo beneficio de proveedores.
El uso de árboles de decisión tuvo su origen en las ciencias sociales con los trabajos
de Sonquist y Morgan el año 1964 y Morgan y Messenger el año 1979, ambos realizados en la
Universidad de Michigan. El programa para la “Detección de Interacciones Automáticas”, creada el
año 1971 por los investigadores Sonquist, Baker y Morgan, fue uno de los primeros métodos de
ajuste de los datos basados en árboles de clasificación. En estadística, el año 1980, Kass introdujo
un algoritmo recursivo de clasificación no binario, llamado “Detección de Interacciones
Automáticas Chi-cuadrado”. Hacia el año 1984, los investigadores Breiman, Friedman, Olshen y
Stone, introdujeron un nuevo algoritmo para la construcción de árboles y los aplicaron a
problemas de regresión y clasificación. El método es conocido como “Árboles de clasificación y
regresión”. Casi al mismo tiempo el proceso de inducción mediante árboles de decisión comenzó a
ser usado por la comunidad de “Aprendizaje automático”.
El término árboles es por la apariencia de la gráfica asociada, que se asemeja a un árbol con las
raíces en la parte superior creciendo hacia la parte inferior. La raíz es el nodo superior, en cada
nodo se hace una partición hasta llegar a un nodo terminal u hoja. Cada nodo no-terminal
contiene una pregunta en la cual se basa la división del nodo. Cada nodo terminal contiene, en el
caso de árboles de regresión, el valor de la variable de respuesta o para árboles para clasificación,
el nombre de la clase a la cual pertenece. La construcción de un árbol de decisión se basa en
cuatro elementos: (1) Un conjunto de preguntas binarias. (2) El método usado para particionar los
nodos. (3) La estrategia requerida para detener el crecimiento del árbol. (4) La asignación de cada
nodo terminal a un valor de la variable de respuesta o a una clase. Las diferencias principales entre
los algoritmos para construir árboles se hallan en la estrategia para podar los árboles, la regla para
particionar los nodos y el tratamiento de los valores perdidos.
Los árboles de decisión son una manera de representar una serie de reglas que culminan en una
clase o valor. Los modelos de árboles de decisión son comúnmente usados en la minería de datos
para examinar los datos e inducir las reglas para realizar predicciones. Los árboles de decisión
crecen a través de una división iterativa de grupos discretos, donde la meta es maximizar la
“distancia” entre grupos por cada división. Una de las distinciones entre los diferentes métodos de
“división” es la manera en la que miden esta distancia. Se puede pensar que cada división de los
datos en nuevos grupos debe ser diferente uno de otro tanto como sea posible. Esto también se
denomina “purificación” de grupos. Los árboles de decisión que se utilizan para predecir variables
categóricas son llamados árboles de clasificación, y los árboles usados para predecir variables
continuas son llamados árboles de regresión. Los árboles de decisión manejan datos no numéricos
de manera bastante conveniente. La habilidad para aceptar datos categóricos minimiza la cantidad
de transformaciones en los datos y la explosión de variables de predicción inherentes en las redes
neuronales. Algunos árboles de clasificación fueron diseñados, y de hecho trabajan mejor cuando
las variables de predicción también son categóricas.
Ejemplo de aplicacion de diagram de decision
70% fallas
Adquirir equipo economico
20% fallas
En el ejemplo anterior a rasgos generales pudimos observar como podemos ver las diferentes
variables a la hora de diseñar una maquina, partiendo de las ventajas y desventajas
Por tanto se ha tomado la decisión de adquirir las piezas de mejor calidad, para evitar algunos
problemas con el cliente.
Ventajas y desventajas del árbol de decisiones
Son fáciles de entender e interpretar. Las personas son capaces de entender los
modelos de árboles de decisión después de una breve explicación.
Tener un valor incluso con pocos datos. importantes conocimientos se pueden
generar en base a los expertos que describen una situación (sus alternativas,
probabilidades y costos) y sus preferencias para los resultados.
Ayudar a determinar peores mejores y esperadas valores, para diferentes escenarios.
Use una caja blanca modelo. Si un determinado resultado es proporcionado por un
modelo.
Se puede combinar con otras técnicas de toma.
Son inestables, lo que significa que un pequeño cambio en los datos puede dar lugar
a un gran cambio en la estructura del árbol de decisión óptima.
A menudo son relativamente inexactos. Muchos otros predictores obtienen mejores
resultados con datos similares. Esto puede remediarse mediante la sustitución de un
solo árbol de decisión con un bosque al azar de los árboles de decisión, pero un
bosque al azar no es tan fácil de interpretar como un solo árbol de decisión.
Para los datos que incluyen variables categóricas con diferente número de niveles,
el aumento de la información en los árboles de decisión se inclina a favor de esos
atributos con más niveles.
Los cálculos se ponen muy compleja, sobre todo si muchos valores son inciertos y /
o si muchos resultados están vinculados.