100% encontró este documento útil (1 voto)
163 vistas4 páginas

Analisis de Datos

El documento describe los métodos estadísticos utilizados para analizar datos climáticos e hidrológicos de una cuenca. Se complementan datos faltantes de precipitación usando correlaciones entre estaciones. Los datos se analizan con SPSS para generar estadísticas descriptivas. La distribución temporal de lluvias se determina usando distribuciones de probabilidad extremas y el método de polígonos de Thiessen para la distribución espacial.

Cargado por

JuanMa Carmona
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
100% encontró este documento útil (1 voto)
163 vistas4 páginas

Analisis de Datos

El documento describe los métodos estadísticos utilizados para analizar datos climáticos e hidrológicos de una cuenca. Se complementan datos faltantes de precipitación usando correlaciones entre estaciones. Los datos se analizan con SPSS para generar estadísticas descriptivas. La distribución temporal de lluvias se determina usando distribuciones de probabilidad extremas y el método de polígonos de Thiessen para la distribución espacial.

Cargado por

JuanMa Carmona
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 4

METODOLOGÍAS

caracterización climática de la cuenca


6. METODOLOGÍA
6.4. ANÁLISIS ESTADÍSTICO DE LA INFORMACIÓN pág. 47
Para el respectivo análisis estadístico de las variables Precipitación, Temperatura,
Humedad Relativa y Brillo solar. Se parte de los datos tomados por las estaciones
de CENICAFÉ, se aclara que para precipitación se realizara la complementación de
datos faltantes ya que dicha variable cuenta con 15 estaciones, por lo tanto, se
permite realizar correlación entre las estaciones.
Para Brillo Solar, Temperatura y Humedad relativa no se puede realizar este
proceso estadístico ya que no cuenta con las estaciones necesarias, para obtener
una correlación valedera y sólo se aplica el filtro por blancos.
6.4.1. Análisis de datos de precipitación pág. 47
Basados en los datos obtenidos de las estaciones meteorológicas, de la zona de
influencia se analiza que la cantidad de datos faltantes de cada estación no supere
el 20% su totalidad de los datos, dichos datos son denominados blancos, aquellas
estaciones que superen este valor se descartan como primer filtro.
Ya que los datos presentan blancos, es necesario realizar un estimativo de los datos
faltantes de un registro, en este, el caso faltante se estima utilizando los registros
de por lo menos tres estaciones que correlacionen; para este caso se utilizan
aquellas estaciones que presente un mayor coeficiente de correlación, generado
con el software SPSS con los datos originales, o sea, dentro de la misma región,
que tengan los registros completos.
Sean, x la estación con el registro A, B, C las estaciones vecinas. Si la precipitación
media anual en la estación x no difiere en más del 10% del promedio de las
precipitaciones medias anuales de las estaciones vecinas, el dato faltante en x se
estima como el promedio aritmético de los registros de las estaciones A, B y C el
día de la falla; si la diferencia es mayor al 10% el dato faltante se estima con el
promedio ponderado dado por la fórmula:
Los datos originales son introducidos al software estadístico SPSS "Statistical
Product and Service Solutions" para su procesamiento, este utiliza el coeficiente
correlación de Pearson para generar dichos coeficientes. Luego utilizando la
ecuación anterior se complementan los blancos, luego tomamos estación por
estación y revisamos los datos extremos que puedan estar presentando
incoherencias con los datos de las precipitaciones de las otras estaciones cercanas
y que puedan corroborar el dato para que este valor extremo no genere errores
mayores, si es el caso y el dato presenta inconsistencias, se calcula como el
promedio estadístico de las 3 estaciones con el que se correlaciona y se tienen los
datos para trabajar en el software SPSS. Para corroborar que el procesamiento de
los datos es correcto y no hay inconsistencias en la calidad de datos, se realizó la
curva de doble masas que según Medina (1998):
Proporciona un criterio que permite determinar si el registro de una estación es
consistente, además la curva se dibuja en un sistema de coordenadas cartesianas,
de tal manera que en las abscisas se acumulan los promedios de las lluvias anuales
de N estaciones vecinas de la estación que se analiza, y en las ordenadas se
colocan las lluvias anuales acumuladas de la estación problema, como se observa
en el siguiente gráfico en el que se analiza la consistencia del registro de una
estación X en el periodo 1941-1955. (p.64).
Los tres casos que se presentan en la figura se analizan de la siguiente manera:
Caso A: El registro de la estación es consistente.
Caso B: Revisar los datos, revisar donde se genera el problema y recalcular.
Caso C: Datos no consistentes.

6.4.2. Análisis con IBM SPSS a las variables climatológicas


Con el software SPSS, se revisa si los datos siguen la prueba de normalidad de
Kolmogorov - Smirnov porque la muestra es mayor a 50 datos. Se generan
histogramas, Diagramas de cajas, barras de error, percentiles y demás datos
estadísticos generados por el paquete estadístico. Este análisis fue realizado para
las variables brillo solar, humedad relativa, temperaturas (media, máximas,
mínimas), precipitación (media) basados en los registros históricos de las
estaciones meteorológicas localizadas en la cuenca
La distribución normal fue calculada para el período 1981-2010 tomando el
promedio multianual de las series, para cada una de las variables climatológicas.
Para el análisis, las series históricas fueron analizadas a diferentes escalas de
tiempo (diaria, mensual y anual); se evaluó la variabilidad interanual, multianual de
las series, que incluyó análisis de estadística descriptiva y de varianza; se
emplearon las herramientas de SPSS y Microsoft office Excel.
Para encontrar las señales del cambio climático fueron analizados períodos de 30
años, con los cuales se calcularon las anomalías promedio, de igual manera, se
realizó tanto el análisis de estadística descriptiva como el de varianza.
8.2.2. Análisis de calidad de datos pág. 78
Los datos iniciales tomados son las mediciones diarias registradas por CENICAFÉ
en sus estaciones para el periodo de 1981-2010, en las estaciones meteorológicas
se pueden observar en el documento digital en la siguiente ruta
Por otra parte, el coeficiente de correlación es obtenido a través del software SPSS
con los datos originales de la estaciones. En el anexo podemos observar que los
marcados con amarillo son los seleccionados; los rojos aunque presentan un
coeficiente de correlación más alto no se pueden utilizar porque presentan blancos
y no deben tener blancos para hacer el promedio estadístico dado en la ecuación 4.
La complementación de datos faltantes (blancos) se realizó para las estaciones que
fue necesario, basado en lo expuesto en el numeral 6.4.1; de acuerdo con esto
podemos observar los resultados en el anexo .Además, la curva de doble masas, al
ser analizadas se puede concluir que los datos de las estaciones son consistentes
para todos los datos generados a partir de la complementación, dicho esto la
muestra de datos de trabajo resulta confiable. Ver anexo
8.2.3. Análisis de datos con SPSS pág. 79
El software permite establecer diagrama de cajas el cual muestra una tendencia
(senoidal) de comportamiento de las lluvias mes a mes de cada estación, de la zona
de influencia sobre la cuenca del rio Espejo como puede observarse en la siguiente
gráfica.

TRABAJO DETERMINACIÓN CAUDAL


6.3. PROCESAMIENTO DE LA INFORMACIÓN pág. 43
6.3.3. Información Hidrológica pág. 44
El procesamiento de la información consiste en realizar el análisis de confiabilidad
a los datos hidrológicos, correspondiente al análisis de las series históricas y la
identificación de los vacíos presentes en los datos y su distribución temporal y
espacial bajo las condiciones dadas, y mediante los siguientes métodos:
 Distribución temporal: Previamente se determina la distribución de
probabilidad de mejor ajuste que presentan los datos en el software AFINS
2.0, Donde se evalúan diferentes distribuciones de probabilidad de valor
extremo como Gumbel, Log Gumbel, TCEV (Two Components Extreme
Value), GEV (Generalized Extreme Value) y Log Normal 2. La selección de
la distribución de mejor ajuste se fundamenta en tres criterios: máxima
verosimilitud, linealidad en las curvas de ajuste y parsimonia.

 Distribución Espacial: El método de los polígonos de Thiessen se aplica


como la forma para determinar la lluvia en la zona, al tener el conocimiento
de que las medidas de precipitación en los diferentes pluviógrafos son
exclusivos de cada estación.

7. PROCESAMIENTO Y ANÁLISIS DE LA INFORMACIÓN pág. 46


7.3. HIDROLÓGICA pág. 52
En este numeral se presenta el análisis de la información hidrológica, definiendo la
confiabilidad de los datos de las estaciones presentes en la zona de estudio y su
distribución espacio-temporal de la lluvia.
7.3.1. Confiabilidad de la serie histórica pág. 52
se expone el análisis de confiabilidad realizado a las estaciones, en el cual se
identifica el número de datos faltantes y así mismo su porcentaje.
7.3.2. Distribución de la lluvia en el espacio
En lo que se refiere al procesamiento de la información hidrológica, para la
determinación de la influencia de la lluvia en la Subcuenca, se optó por la aplicación
del método de polígonos de Thiessen.
7.3.3. Distribución de la lluvia en el tiempo
En primer lugar se establece la distribución de probabilidad de mejor ajuste que
presentan los datos, para esto se implementa el software AFINS 2.0, Donde se
evalúan diferentes distribuciones de probabilidad de valor extremo. Al tener en
cuenta los criterios para selección del mejor ajuste, se presenta el criterio de Máxima
verosimilitud donde se indica que la distribución de GEV presenta un mejor ajuste,
basándose en el segundo criterio en la Imagen 18 se observa la linealidad en las
curvas de ajuste, donde se infiere que las distribuciones con tendencias lineales son
Gumbel, TCEV, Log Normal 2 y GEV y considerando el tercer criterio, las
distribuciones con menos parámetros son Gumbel, Log Gumbel y Log Normal 2.

También podría gustarte