El documento describe los métodos estadísticos utilizados para analizar datos climáticos e hidrológicos de una cuenca. Se complementan datos faltantes de precipitación usando correlaciones entre estaciones. Los datos se analizan con SPSS para generar estadísticas descriptivas. La distribución temporal de lluvias se determina usando distribuciones de probabilidad extremas y el método de polígonos de Thiessen para la distribución espacial.
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
100%(1)100% encontró este documento útil (1 voto)
163 vistas4 páginas
Analisis de Datos
El documento describe los métodos estadísticos utilizados para analizar datos climáticos e hidrológicos de una cuenca. Se complementan datos faltantes de precipitación usando correlaciones entre estaciones. Los datos se analizan con SPSS para generar estadísticas descriptivas. La distribución temporal de lluvias se determina usando distribuciones de probabilidad extremas y el método de polígonos de Thiessen para la distribución espacial.
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 4
METODOLOGÍAS
caracterización climática de la cuenca
6. METODOLOGÍA 6.4. ANÁLISIS ESTADÍSTICO DE LA INFORMACIÓN pág. 47 Para el respectivo análisis estadístico de las variables Precipitación, Temperatura, Humedad Relativa y Brillo solar. Se parte de los datos tomados por las estaciones de CENICAFÉ, se aclara que para precipitación se realizara la complementación de datos faltantes ya que dicha variable cuenta con 15 estaciones, por lo tanto, se permite realizar correlación entre las estaciones. Para Brillo Solar, Temperatura y Humedad relativa no se puede realizar este proceso estadístico ya que no cuenta con las estaciones necesarias, para obtener una correlación valedera y sólo se aplica el filtro por blancos. 6.4.1. Análisis de datos de precipitación pág. 47 Basados en los datos obtenidos de las estaciones meteorológicas, de la zona de influencia se analiza que la cantidad de datos faltantes de cada estación no supere el 20% su totalidad de los datos, dichos datos son denominados blancos, aquellas estaciones que superen este valor se descartan como primer filtro. Ya que los datos presentan blancos, es necesario realizar un estimativo de los datos faltantes de un registro, en este, el caso faltante se estima utilizando los registros de por lo menos tres estaciones que correlacionen; para este caso se utilizan aquellas estaciones que presente un mayor coeficiente de correlación, generado con el software SPSS con los datos originales, o sea, dentro de la misma región, que tengan los registros completos. Sean, x la estación con el registro A, B, C las estaciones vecinas. Si la precipitación media anual en la estación x no difiere en más del 10% del promedio de las precipitaciones medias anuales de las estaciones vecinas, el dato faltante en x se estima como el promedio aritmético de los registros de las estaciones A, B y C el día de la falla; si la diferencia es mayor al 10% el dato faltante se estima con el promedio ponderado dado por la fórmula: Los datos originales son introducidos al software estadístico SPSS "Statistical Product and Service Solutions" para su procesamiento, este utiliza el coeficiente correlación de Pearson para generar dichos coeficientes. Luego utilizando la ecuación anterior se complementan los blancos, luego tomamos estación por estación y revisamos los datos extremos que puedan estar presentando incoherencias con los datos de las precipitaciones de las otras estaciones cercanas y que puedan corroborar el dato para que este valor extremo no genere errores mayores, si es el caso y el dato presenta inconsistencias, se calcula como el promedio estadístico de las 3 estaciones con el que se correlaciona y se tienen los datos para trabajar en el software SPSS. Para corroborar que el procesamiento de los datos es correcto y no hay inconsistencias en la calidad de datos, se realizó la curva de doble masas que según Medina (1998): Proporciona un criterio que permite determinar si el registro de una estación es consistente, además la curva se dibuja en un sistema de coordenadas cartesianas, de tal manera que en las abscisas se acumulan los promedios de las lluvias anuales de N estaciones vecinas de la estación que se analiza, y en las ordenadas se colocan las lluvias anuales acumuladas de la estación problema, como se observa en el siguiente gráfico en el que se analiza la consistencia del registro de una estación X en el periodo 1941-1955. (p.64). Los tres casos que se presentan en la figura se analizan de la siguiente manera: Caso A: El registro de la estación es consistente. Caso B: Revisar los datos, revisar donde se genera el problema y recalcular. Caso C: Datos no consistentes.
6.4.2. Análisis con IBM SPSS a las variables climatológicas
Con el software SPSS, se revisa si los datos siguen la prueba de normalidad de Kolmogorov - Smirnov porque la muestra es mayor a 50 datos. Se generan histogramas, Diagramas de cajas, barras de error, percentiles y demás datos estadísticos generados por el paquete estadístico. Este análisis fue realizado para las variables brillo solar, humedad relativa, temperaturas (media, máximas, mínimas), precipitación (media) basados en los registros históricos de las estaciones meteorológicas localizadas en la cuenca La distribución normal fue calculada para el período 1981-2010 tomando el promedio multianual de las series, para cada una de las variables climatológicas. Para el análisis, las series históricas fueron analizadas a diferentes escalas de tiempo (diaria, mensual y anual); se evaluó la variabilidad interanual, multianual de las series, que incluyó análisis de estadística descriptiva y de varianza; se emplearon las herramientas de SPSS y Microsoft office Excel. Para encontrar las señales del cambio climático fueron analizados períodos de 30 años, con los cuales se calcularon las anomalías promedio, de igual manera, se realizó tanto el análisis de estadística descriptiva como el de varianza. 8.2.2. Análisis de calidad de datos pág. 78 Los datos iniciales tomados son las mediciones diarias registradas por CENICAFÉ en sus estaciones para el periodo de 1981-2010, en las estaciones meteorológicas se pueden observar en el documento digital en la siguiente ruta Por otra parte, el coeficiente de correlación es obtenido a través del software SPSS con los datos originales de la estaciones. En el anexo podemos observar que los marcados con amarillo son los seleccionados; los rojos aunque presentan un coeficiente de correlación más alto no se pueden utilizar porque presentan blancos y no deben tener blancos para hacer el promedio estadístico dado en la ecuación 4. La complementación de datos faltantes (blancos) se realizó para las estaciones que fue necesario, basado en lo expuesto en el numeral 6.4.1; de acuerdo con esto podemos observar los resultados en el anexo .Además, la curva de doble masas, al ser analizadas se puede concluir que los datos de las estaciones son consistentes para todos los datos generados a partir de la complementación, dicho esto la muestra de datos de trabajo resulta confiable. Ver anexo 8.2.3. Análisis de datos con SPSS pág. 79 El software permite establecer diagrama de cajas el cual muestra una tendencia (senoidal) de comportamiento de las lluvias mes a mes de cada estación, de la zona de influencia sobre la cuenca del rio Espejo como puede observarse en la siguiente gráfica.
TRABAJO DETERMINACIÓN CAUDAL
6.3. PROCESAMIENTO DE LA INFORMACIÓN pág. 43 6.3.3. Información Hidrológica pág. 44 El procesamiento de la información consiste en realizar el análisis de confiabilidad a los datos hidrológicos, correspondiente al análisis de las series históricas y la identificación de los vacíos presentes en los datos y su distribución temporal y espacial bajo las condiciones dadas, y mediante los siguientes métodos: Distribución temporal: Previamente se determina la distribución de probabilidad de mejor ajuste que presentan los datos en el software AFINS 2.0, Donde se evalúan diferentes distribuciones de probabilidad de valor extremo como Gumbel, Log Gumbel, TCEV (Two Components Extreme Value), GEV (Generalized Extreme Value) y Log Normal 2. La selección de la distribución de mejor ajuste se fundamenta en tres criterios: máxima verosimilitud, linealidad en las curvas de ajuste y parsimonia.
Distribución Espacial: El método de los polígonos de Thiessen se aplica
como la forma para determinar la lluvia en la zona, al tener el conocimiento de que las medidas de precipitación en los diferentes pluviógrafos son exclusivos de cada estación.
7. PROCESAMIENTO Y ANÁLISIS DE LA INFORMACIÓN pág. 46
7.3. HIDROLÓGICA pág. 52 En este numeral se presenta el análisis de la información hidrológica, definiendo la confiabilidad de los datos de las estaciones presentes en la zona de estudio y su distribución espacio-temporal de la lluvia. 7.3.1. Confiabilidad de la serie histórica pág. 52 se expone el análisis de confiabilidad realizado a las estaciones, en el cual se identifica el número de datos faltantes y así mismo su porcentaje. 7.3.2. Distribución de la lluvia en el espacio En lo que se refiere al procesamiento de la información hidrológica, para la determinación de la influencia de la lluvia en la Subcuenca, se optó por la aplicación del método de polígonos de Thiessen. 7.3.3. Distribución de la lluvia en el tiempo En primer lugar se establece la distribución de probabilidad de mejor ajuste que presentan los datos, para esto se implementa el software AFINS 2.0, Donde se evalúan diferentes distribuciones de probabilidad de valor extremo. Al tener en cuenta los criterios para selección del mejor ajuste, se presenta el criterio de Máxima verosimilitud donde se indica que la distribución de GEV presenta un mejor ajuste, basándose en el segundo criterio en la Imagen 18 se observa la linealidad en las curvas de ajuste, donde se infiere que las distribuciones con tendencias lineales son Gumbel, TCEV, Log Normal 2 y GEV y considerando el tercer criterio, las distribuciones con menos parámetros son Gumbel, Log Gumbel y Log Normal 2.