Mcom2 U3 A1 Jeru

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 3

COMPUTACIÓN II

(MCOM2)
Licenciatura en Matemáticas

Unidad 3 Actividad 1
Jesús Abraham Rojas Úrzulo
jesus_rojas_urzulo@nube.unadmexico.mx
Matricula: ES1821013126
Jesús Abraham Rojas Úrzulo Licenciatura en Matemáticas
Matricula: ES1821013126 Computación II (MCOM2)

Elabora un cuadro comparativo sobre los temas: validación, validación cruzada, leave one out y
bootsstrap.

La finalidad última de un modelo es predecir la variable respuesta en observaciones futuras o en


observaciones que el modelo no ha “visto” antes. El error mostrado por defecto tras entrenar un modelo
suele ser el error de entrenamiento, el error que comete el modelo al predecir las observaciones que
ya ha “visto”. Si bien estos errores son útiles para entender cómo está aprendiendo el modelo, no es
una estimación realista de como se comporta el modelo ante nuevas observaciones. Para conseguir
una estimación más certera, se tiene que recurrir a un conjunto de prueba o emplear estrategias de
validación.

Los métodos de validación son estrategias que permiten estimar la capacidad predictiva de los
modelos cuando se aplican a nuevas observaciones, haciendo uso únicamente de los datos de
entrenamiento. La diferencia entre métodos suele ser de la forma en que se generan los subconjuntos
de entrenamiento/validación.

Validación Simple

El método más sencillo de validación consiste en repartir aleatoriamente las observaciones


disponibles en dos grupos, uno se emplea para entrenar al modelo y otro para evaluarlo. Si bien es
la opción más simple, tiene dos problemas importantes:

• La estimación el error es altamente variable dependiendo de que observaciones se incluyan


como conjunto de entrenamiento y cuáles como conjunto de validación.

• Al excluir parte de las observaciones disponibles como datos de entrenamiento, se dispone


de menos información con la que entrenar el modelo y, por tanto, se reduce su capacidad.
Validación cruzada

El método de validación cruzada es también un proceso iterativo. Consiste en dividir los datos de
forma aleatoria en k grupos de aproximadamente el mimo tamaño, k-1 grupos se emplean para
entrenar el modelo y uno de los grupos se emplea como validación. Este proceso se repite k veces
utilizando un grupo distinto como validación en cada iteración. El proceso genera k estimaciones del
error cuyo promedio se emplea como estimación final.
Leave One Out

El método LOOCV en un método iterativo que se inicia empleando como conjunto de entrenamiento
todas las observaciones disponibles excepto una, que se excluye para emplearla como validación.
Si se emplea una única observación para calcular el error, este varía mucho dependiendo de qué
observación se haya seleccionado. Para evitarlo, el proceso se repite tantas veces como
observaciones disponibles, excluyendo en cada iteración una observación distinta, ajustando el
modelo con el resto y calculando el error con dicha observación. Finalmente, el error estimado por
el LOOCV es el promedio de todos lo i errores calculados.
Bootstrapping

Una muestra bootstrap es una muestra obtenida a partir de la muestra original por muestreo aleatorio
con reposición, y del mismo tamaño que la muestra original. Muestreo aleatorio con reposición
(resampling with replacement) significa que, después de que una observación sea extraída, se
vuelve a poner a disposición para las siguientes extracciones. Como resultado de este tipo de
Jesús Abraham Rojas Úrzulo Licenciatura en Matemáticas
Matricula: ES1821013126 Computación II (MCOM2)

muestreo, algunas observaciones aparecerán múltiples veces en la muestra bootstrap y otras


ninguna. Las observaciones no seleccionadas reciben el nombre de out-of-bag (OOB). Por cada
iteración de bootstrapping se genera una nueva muestra bootstrap, se ajusta el modelo con ella y
se evalúa con las observaciones out-of-bag.

1. Obtener una nueva muestra del mismo tamaño que la muestra original mediante muestro
aleatorio con reposición.

2. Ajustar el modelo empleando la nueva muestra generada en el paso 1.

3. Calcular el error del modelo empleando aquellas observaciones de la muestra original que no
se han incluido en la nueva muestra. A este error se le conoce como error de validación.

4. Repetir el proceso n veces y calcular la media de los n errores de validación.

5. Finalmente, y tras las n repeticiones, se ajusta el modelo final empleando todas las
observaciones de entrenamiento originales.

Bibliografía
México, U. A. (s.f.). Computación II.
Rodrigo, J. A. (08 de 11 de 2021). Validación de modelos predictivos: Cross-validation,
OneLeaveOut, Bootstraping. Obtenido de Validación de modelos predictivos: Cross-validation,
OneLeaveOut, Bootstraping: https://www.cienciadedatos.net/documentos/30_cross-
validation_oneleaveout_bootstrap

También podría gustarte