Libro Sig PDF
Libro Sig PDF
Libro Sig PDF
Sistemas de
Información Geográfica
2014
Sistemas de Información Geográfica
Copyright
2014
c Víctor Olaya
Se concede permiso para copiar, distribuir o modificar esta obra bajo los términos expresados en la
licencia Creative Common Atribución, la cual puede encontrarse en www.creativecommons.org. La li-
cencia se aplica a todo el texto, así como las imágenes creadas por el propio autor, que serán aque-
llas para las que no se especifique de modo explícito una distinta procedencia. Este libro puede des-
cargarse de forma libre en varios formatos, incluyendo formatos editables, en la dirección Web http:
//volaya.es/writing.
Los nombre de productos o corporaciones que aparecen en el texto pueden constituir marcas registradas
y se emplean sin otro afán que el meramente identificativo. Asimismo, la inclusión o no de uno de tales
productos no expresa recomendación alguna por parte del autor.
For E.
[...]
But all remembered beauty is no more
Than a vague prelude to the thought of you –.
[...]
Sara Teasdale. Love songs.
Introducción
Agradecimientos
Las siguientes personas han colaborado en la creación de este libro: Landon
Blake, Javier Carrasco, Juan Carlos Giménez, Tomislav Hengl, Toni Hernández,
Santiago Higuera, José Manuel Llorente, Ester López, Miguel Luaces, Jordi Martu-
rià, Miguel Montesinos, Rosa Olivella, Ferrán Orduña, Joana Palahí, Nuria Pérez,
Carol Puig, Jorge Sanz, Josep Sitjar, David Tabernero, Ian Turton, Nacho Varela,
Ana Velasco, Laura Vergoñós y Lluis Vicens. Mi más sincero agradecimiento a
todos ellos por hacer posible este proyecto.
Índice general
I Los fundamentos 1
II Los datos 65
IV La tecnología 571
V La visualización 639
31.Metadatos 767
31.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 767
31.2. La utilidad de los metadatos . . . . . . . . . . . . . . . . . . . . . 768
31.2.1. Garantizar el uso correcto de los datos . . . . . . . . . . . 769
31.2.2. Facilitar la gestión los datos . . . . . . . . . . . . . . . . . 770
31.3. Características de los metadatos . . . . . . . . . . . . . . . . . . . 772
31.3.1. Contenido de los metadatos . . . . . . . . . . . . . . . . . 772
31.3.2. Granularidad de los metadatos . . . . . . . . . . . . . . . 774
31.3.3. Forma de almacenamiento de los metadatos . . . . . . . . 776
31.4. Creación de metadatos . . . . . . . . . . . . . . . . . . . . . . . . 776
31.4.1. Herramientas para crear metadatos . . . . . . . . . . . . . 778
31.5. Algunos ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . 779
31.6. Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 780
32.Estándares 781
32.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 781
32.2. Estándares abiertos e interoperabilidad . . . . . . . . . . . . . . . 782
32.3. Entidades creadoras de estándares . . . . . . . . . . . . . . . . . . 786
32.3.1. Open Geospatial Consortium (OGC) . . . . . . . . . . . . 786
32.3.2. ISO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 786
32.3.3. W3C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 787
32.4. Estándares para representación y obtención de información geográfica788
32.4.1. Simple Features for SQL (SFS) . . . . . . . . . . . . . . . 788
32.4.2. Geography Markup Language (GML) . . . . . . . . . . . . 789
32.4.3. Web Feature Service (WFS) . . . . . . . . . . . . . . . . . 790
32.4.4. Filter Encoding . . . . . . . . . . . . . . . . . . . . . . . . 791
32.4.5. Web Coverage Service (WCS) . . . . . . . . . . . . . . . . 792
32.5. Estándares para mapas y visualización . . . . . . . . . . . . . . . 792
32.5.1. Web Map Service (WMS) . . . . . . . . . . . . . . . . . . 793
32.5.2. Standard Layer Description (SLD) . . . . . . . . . . . . . 794
32.5.3. Web Mapping Context (WMC) . . . . . . . . . . . . . . . 794
32.6. Estándares para metadatos, catálogos y consulta de datos . . . . . 795
32.6.1. ISO 19115 e ISO 19119 . . . . . . . . . . . . . . . . . . . . 795
32.6.2. Nomenclátor (Gazetteer) . . . . . . . . . . . . . . . . . . . 796
32.7. Estándares para procesamiento . . . . . . . . . . . . . . . . . . . 797
32.7.1. Web Processing Service (WPS) . . . . . . . . . . . . . . . 797
32.8. Relación entre estándares . . . . . . . . . . . . . . . . . . . . . . 798
32.9. Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 798
Parte I
Los fundamentos
Capítulo 1
1.1. Introducción
Para justificar la importancia de los Sistemas de Información Geográfica (SIG)
y el papel que estos juegan hoy en día, es habitual en libros como este citar el hecho
de que aproximadamente un 70% de la información que manejamos en cualquier
tipo de disciplina está georreferenciada. Es decir, que se trata de información a
la cual puede asignarse una posición geográfica, y es por tanto información que
viene acompañada de otra información adicional relativa a su localización.
Si bien es probable que este porcentaje no haya variado desde que comenzó a
mencionarse en los libros sobre SIG, la situación es en la actualidad más favorable
que nunca para el desarrollo de herramientas que permitan la utilización de toda
esa información al tiempo que se consideran los datos relativos a su posición en el
espacio. Esto es así no solo porque trabajamos con gran cantidad de información
referenciada geográficamente, sino porque somos cada día más conscientes de
la importancia que esa componente geográfica tiene. La geografía ha pasado de
ser un ámbito particular con cierta relación con otros campos a ser un elemento
fundamental incorporado a la mayor parte de las disciplinas. Y no solo en el terreno
científico, sino en el terreno mismo de la vida diaria, donde toda esta información
desempeña un papel de gran importancia.
La utilización de cartografía ha dado un vuelco radical en el plazo de unas
décadas, permitiendo nuevas posibilidades y acercando la información cartográfica
como herramienta de primer orden a un público amplio y diverso. La elaboración
misma de cartografía ha pasado de ser terreno exclusivo de profesionales del sector
a ser una labor abierta donde las nuevas tecnologías, especialmente las de corte
4 Sistemas de Información Geográfica
más sólidos de los SIG en la actualidad es su capacidad de mostrar que existe una
componente espacial susceptible de ser gestionada con la ayuda de un SIG en la
práctica totalidad de contextos posibles.
En nuestro ejemplo de gestión forestal, los propios datos del inventario, que
antes eran fundamentalmente datos sobre las propiedades de los distintos árboles
medidos (altura, diámetro, etc.), ahora ofrecen muchas más posibilidades si se
considera que cada uno de estos árboles ha sido medido en una parcela dada, la
cual lleva asociadas unas coordenadas concretas.
hardware que antes mencionábamos). Más aún, un SIG contiene no solo los datos y la
representación, sino también las operaciones que pueden hacerse sobre el mapa, que
no son ajenas a este sino partes igualmente de todo el sistema conformado por el SIG.
De la misma forma que los textos han pasado del papel al ordenador (antes
leíamos libros, ahora podemos leer libros impresos, libros digitales, páginas Web,
etc.), los mapas también han dado ese salto cualitativo con la aparición de los
SIG. Sin embargo, el SIG es mucho más que una nueva forma de cartografía, y no
invalida en absoluto formas anteriores. De hecho, una función muy importante de
los SIG es ayudar a crear mapas en papel, y estos se siguen utilizando hoy en día
en todos los ámbitos. Y junto con esta funcionalidad, encontramos otras que hacen
que en su conjunto un SIG sea una herramienta integradora y completa para el
trabajo con información georreferenciada.
Debe entenderse, pues, un SIG, como un elemento complejo que engloba una
serie de otros elementos conectados, cada uno de los cuales desempeña una función
particular. Estos elementos son, como iremos viendo más adelante, los datos,
los procesos, la visualización, la tecnología y el factor organizativo. Baste por
el momento citarlos, ya que más adelante, y a lo largo de todo el libro, se irán
describiendo pormenorizadamente todos ellos.
Con lo anterior, una definición más precisa es decir que un SIG es un sistema
que integra tecnología informática, personas e información geográfica[3], y cuya
principal función es capturar, analizar, almacenar, editar y representar datos
georreferenciados [4].
En las siguientes secciones veremos por separado la forma en que un SIG integra
la tecnología informática, las personas y la información geográfica, así como la
forma en que los conceptos fundamentales en los que el propio SIG se sustenta
suponen una integración de distintas disciplinas.
simple dista, no obstante, mucho del concepto real de un SIG, pues este incorpora
elementos de muchas ciencias distintas como pueden ser las siguientes[5]:
Disciplinas relacionadas con la tecnología y el manejo de información. Se
incluyen aquí las ciencias de la información, la informática, el diseño de
bases de datos o el tratamiento digital de imágenes, entre otras. Muchas de
estas, a su vez, derivan de otras o toman importantes elementos de ellas. La
estadística o la matemática son algunas de esas ciencias fundamentales.
Disciplinas dedicadas al estudio de la Tierra desde un punto de vista físico. La
geología, la geología, la oceanografía, la ecología, así como todo el conjunto
de ciencias medioambientales, forman parte de este grupo.
Disciplinas dedicadas al estudio de la Tierra desde un punto de vista social
y humano. En este grupo se incluyen la antropología, la geografía o la so-
ciología, entre otras. Las ciencias de este grupo, así como las del anterior,
son todas ellas potenciales usuarias de los SIG.
Disciplinas dedicadas al estudio del entendimiento humano, en particular en
lo concerniente a la interacción con máquinas. Las ciencias del conocimiento,
la psicología en general o las ramas que estudian y desarrollan la Inteligencia
Artificial también juegan su papel en el contexto actual de los SIG.
Disciplinas que tradicionalmente han realizando una integración de cono-
cimientos de otros ámbitos distintos. La geografía como tal es la principal
representante de este grupo.
En el contexto presente, podemos entender la Ciencia de la Información Geo-
gráfica2 como todo el conjunto de disciplinas y conocimientos que residen tras los
SIG, tanto en su desarrollo y creación como en su utilización y aspectos prácticos.
Esta ciencia se enmarcaría a su vez dentro de ese último grupo de disciplinas
integradoras, llevando más allá la idea de la geografía como área de conocimiento
que engloba elementos de muchos otros ámbitos.
El término geomática, formado a partir de los vocablos geografía e informática, se
emplea con frecuencia para hacer mención a todo ese grupo de ciencias relacionadas
con los SIG. No obstante, y como ya se ha comentado, no se refiere exclusivamente
a esas dos disciplinas, sino que simplemente toma nombre de los dos bloques princi-
pales de conocimiento a partir de los cuales se ha desarrollado la ciencia de los SIG.
Si los SIG deben ser entendidos a día de hoy como un sistema, la ciencia que
los define y en la que se fundamentan debe no solo describir y servir de soporte a
su elementos, sino también atender a una de las características fundamentales de
todo sistema: las interrelaciones existentes entre dichos elementos. Por esta razón,
disciplinas tales como las ciencias del conocimiento juegan un papel importante
en el ámbito de los SIG, pues son fundamentales para estudiar las relaciones entre
dos de sus componentes como son la tecnología y el factor organizativo.
2
Geographic Information Science en inglés, abreviado como GIScience o simplemente con
el propio acrónimo GIS
12 Sistemas de Información Geográfica
El CAD puede resultar suficiente para desarrollar algunas tareas propias de los
14 Sistemas de Información Geográfica
4
Cartografía Automatizada/Gestión de Servicios
Introducción. ¿Qué es un SIG? 15
a hardware se refiere. Por esta razón, no es necesario tratar en detalle esta pieza del
sistema SIG, siendo más adecuado tratar el resto de elementos, más característicos
e importantes para el aprendizaje de los conceptos SIG y la descripción de estos.
Por su parte, las personas tienen importancia tanto de forma individual como
en su conjunto, siendo diferentes las necesidades que plantean como usuarios y
beneficiarios de un SIG. En la sociedad actual, las tecnologías y planteamientos
colaborativos han calado hondo en el ámbito SIG, y la información geográfica es,
por su propia naturaleza, propensa a ser compartida y utilizada por diferentes
personas con fines muy distintos. Es por ello que el aspecto de mayor relevancia
respecto a las personas como partes del sistema SIG es el de sus relaciones y su
organización, siendo además en este campo donde se han producido en mayor
medida los últimos avances, y donde ha tenido lugar un cambio más profundo, no
ya solo dentro de los SIG, sino también en otras tecnologías de similar índole.
Puede entenderse esto como un nuevo subsistema: el subsistema de gestión,
que es responsable de gestionar la interacción de los restantes y definir y controlar
el marco en que esta tiene lugar.
Las personas a su vez dan forma a los distintos ámbitos de trabajo, definiendo
estos en función de sus necesidades. Puede tratarse el conjunto de campos de
especialización como un nuevo elemento del sistema SIG, en lugar de incorporarlo
dentro de otro.
Algunos autores proponen modificar el esquema clásico de cinco elementos
para reflejar más correctamente la nueva realidad de los SIG. Por ejemplo, [9]
propone un esquema como el mostrado en la figura 1.3.
La incorporación de la visualización es una diferencia notable con respecto al
Introducción. ¿Qué es un SIG? 17
Visualización
Procesos y métodos
Campos de aplicación
Datos
Tecnología
Conceptos
geográficos
básicos
Figura 1.3: Una división distinta del sistema SIG (según [9])
1.5.1. Datos
Los datos son necesarios para hacer que el resto de componentes de un SIG
cobre sentido y puedan ejercer su papel en el sistema. La información geográfica,
la verdadera razón de ser los SIG, reside en los datos, y es por ello que el conoci-
miento exhaustivo de los datos y su naturaleza resulta obligado para una buena
comprensión los propios SIG.
Son muchas las facetas de los datos que deben estudiarse, y todas ellas con
una gran importancia. Por un lado, es necesario conocer las características fun-
damentales del dato geográfico que utilizamos en un SIG, es decir, su forma y
sus propiedades. De ellas dependen, por ejemplo, los procesos que podremos o no
realizar con los datos, y en general todo cuanto podemos esperar de ellos.
Prescindiendo del hecho de que se trata de un dato geográfico, es relevante
conocer cómo los datos se gestionan y almacenan en un entorno digital, aspectos
de corte puramente informático que desarrolla la disciplina de la gestión de bases
de datos. Cuando las ideas fundamentales al respecto se aplican al caso particular
de los datos geográficos, surgen conceptos que resultan básicos para un buen uso
de un SIG, y que además van siendo cada vez más relevantes a medida que los
volúmenes de datos de que se dispone van aumentando.
Al igual que aumenta el volumen de datos, lo hacen los orígenes de estos y las for-
Introducción. ¿Qué es un SIG? 19
mas en que la información geográfica puede recogerse. Un aspecto clave para una uti-
lización correcta de un SIG es saber integrar datos de distinta procedencia, para lo
cual es vital entender cómo esta afecta a las propias características de dichos datos.
Otros elementos tales como la calidad de los datos, la cual cobra cada día
más importancia, serán tratados igualmente junto a los anteriores en una parte
específicamente dedicada a los datos, probablemente una de las más importantes
dentro de este libro.
1.5.2. Análisis
El análisis es una las funcionalidades básicas de los SIG, y una de las razones
fundamentales que llevaron al desarrollo de estos. Un ordenador es una herramienta
con enorme capacidad de cálculo, y esta puede aplicarse a los datos espaciales para
obtener resultados de muy diversa índole.
En mayor o menor medida, un SIG siempre incorpora una serie de formulaciones
que permiten la obtención de resultados y el análisis de los datos espaciales. Estas
formulaciones representan procesos que pueden ser sumamente sencillos o enorme-
mente complejos, y que pueden resultar de aplicación en uno u otro campo, o incluso
con carácter general. Su origen puede ser muy variado, y no derivan necesariamente
del ámbito puro de la geografía, sino que pueden ir desde simples consultas o
mediciones a elaborados modelos que empleen datos de variables muy numerosas
y arrojen resultados complejos. La estadística, entre otras ciencias, puede aportar
al ámbito SIG muchas de sus ideas, y estas, adaptadas al marco de la información
georreferenciada, constituir en el SIG un nuevo conjunto de procesos de análisis.
Las ventajas de la incorporación de todos estos procesos en una única herra-
mienta, el SIG, van desde la automatización de tareas a la aparición de nuevos
procesos que, aprovechando la gran capacidad de cómputo de la plataforma en
la que se ejecuta el SIG, producen resultados que no podrían ser obtenidos de otro
modo. Bien sea por la complejidad propia de los procesos o por el nivel de precisión
al que se trabaja, existen muchos procesos que mediante el uso de cartografía
clásica y sin el apoyo de medios informatizados no pueden realizarse. El SIG abre
un campo de actuación en el que la práctica totalidad de ideas y formulaciones
de análisis pueden plasmarse y aplicarse con carácter práctico.
1.5.3. Visualización
Cualquier tipo de información puede ser representada de forma gráfica, lo cual
habitualmente facilita la interpretación de dicha información o parte de esta. Gran
parte de las características de la información (por ejemplo, la presencia de patrones
sistemáticos), son más fáciles de estudiar cuando se apoyan sobre algún elemento
visual, pues este añade un nuevo punto de vista.
En el caso particular de la información geográfica, la visualización no solo es una
20 Sistemas de Información Geográfica
forma más de trabajar con esa información, sino que resulta la forma principal, no ya
por ser la que en general hace más fácil e intuitivo el tratamiento de esa información,
sino porque es aquella a la que estamos más acostumbrados. La información geo-
gráfica tiene una inherente naturaleza visual, ya que el espacio en sí es entendido de
forma gráfica por el ser humano. Junto a esto, no debemos olvidar que la información
geográfica se ha almacenado de forma tradicional de modo también visual, a través
de mapas. Un mapa es en sí una representación visual de la información geográfica.
Al contrario que un mapa, que de por sí es de naturaleza gráfica, en un SIG
trabajamos con datos de tipo puramente numérico, ya que es así como el ordenador
puede manejarlos, y la información geográfica debe almacenarse de este modo,
como veremos con detalle en el capítulo 5. Para poder presentar una utilidad
similar a la de un mapa en lo que a la presentación de la información respecta, un
SIG debe incluir capacidades que generen representaciones visuales a partir de esos
datos numéricos, aprovechando en la medida de lo posible las propias capacidades
del medio informático en que se trabaja para hacer estas representaciones más
potentes como transmisoras de información.
Es deseable igualmente que el SIG sea capaz de generar cartografía clásica, y
que incorpore métodos para el diseño cartográfico y la creación de mapas impresos,
pues estos no pierden su vigencia pese a la existencia de los SIG.
La visualización de la información geográfica se rige por los mismos conceptos y
principios que se emplean para la confección de cartografía impresa, y estos deben
ser conocidos por el usuario de SIG, ya que una de las tareas de este es el diseño
cartográfico y las preparación de los elementos de visualización para poder realizar
su trabajo sobre las representaciones creadas. A los conceptos tradicionales hay que
sumar algunas ideas nuevas, ya que un SIG es capaz de generar representaciones más
avanzadas (por ejemplo, representaciones tridimensionales). A esto hay que sumar
la presencia de un elemento característico y de gran importancia como es la elevada
interactividad que toda representación gráfica lleva asociada dentro de un SIG, y que
constituye una gran diferencia frente al carácter estático de la cartografía clásica.
Por todo ello, la visualización debe considerarse como un componente fun-
damental del sistema SIG en su concepción actual, y particularmente uno con
especial interés desde el punto de vista del usuario directo de tecnologías SIG.
1.5.4. Tecnología
Incluimos en este elemento tanto el hardware sobre el que se ejecutan las apli-
caciones SIG, como dichas aplicaciones, es decir el software SIG. Ambos forman un
binomio tecnológico en el que encontramos diversas alternativas, y que se enriquece
diariamente con la rápida evolución del mercado tecnológico.
En lo que a hardware respecta, es el elemento físico del sistema SIG, y conforma
la plataforma sobre la que tiene lugar el trabajo con un SIG. La utilización de
un SIG hoy en día se puede llevar a cabo en ordenadores personales o estaciones
Introducción. ¿Qué es un SIG? 21
sus propios datos con los cuales trabajaba de forma independiente del resto de
usuarios, incluso si estos llevaban a cabo su trabajo sobre una misma área geográfica
y estudiando las mismas variables. Hoy en día, la información no se concibe como
un elemento privado de cada usuario, sino como un activo que ha de gestionarse,
y del que deriva toda una disciplina completa.La aplicación de esta disciplina
es la base de algunos de los avances más importantes en la actualidad, teniendo
implicaciones no ya solo técnicas sino también sociales en el ámbito de los SIG.
Asimismo, las necesidad de gestión de los datos y la propia complejidad de
un SIG, provocan ambas que no exista un perfil único de persona involucrada en
el sistema SIG, sino varias en función de la actividad que desarrollen. Al usuario
clásico de SIG se unen las personas responsables de gestionar las bases de datos, las
encargadas de diseñar la arquitectura de un SIG cuando este se establece para un
uso conjunto por parte de toda una organización o grupo de mayor entidad. Dentro
de las personas que participan en un SIG, el usuario directo es el eslabón último de
una cadena que incluye igualmente a otros profesionales con roles bien distintos.
Incluso atendiendo únicamente a los usuarios, también entre estos existen
diferentes perfiles, y las comunidades de usuarios no expertos juegan en la actua-
lidad un importante papel en el mundo del SIG. Esta situación, a su vez, requiere
elementos organizativos importantes. Con la popularización y bajo coste de las
unidades GPS y la aparición de la denominada Web 2.0, el SIG ha llegado a
usuarios no especializados, los cuales utilizan estas herramientas para la creación
y uso de su propia cartografía, dentro de lo que se conoce como VGI (Volunteered
Geographic Information 5 ) [10]. El término Neogeografía, de reciente creación, hace
referencia a este uso de los SIG y otras herramientas asociadas por parte de grupos
de usuarios no especializados.
En definitiva, resulta necesario gestionar correctamente la complejidad del
sistema SIG, y esta gestión se ha convertido ya en un elemento fundamental dentro
del entorno SIG actual, por lo que debe ser estudiada igualmente.
1.6. Resumen
En este capítulo hemos presentado los SIG como herramienta para el manejo
general de información geográfica, fundamental para trabajar hoy en día con todo
tipo de información georreferenciada. Un SIG es un sistema compuesto por cinco
piezas fundamentales: datos, tecnología, análisis, visualización y factor organiza-
tivo. Cada una de ellas cumple un papel determinado dentro del sistema SIG, el
cual se caracteriza fundamentalmente por su naturaleza integradora.
Existen otras herramientas y tecnologías que pueden en principio asemejarse
a los SIG, pero que realmente no comparten con estos su capacidad de integrar
5
Información geográfica creada voluntariamente
bajo un marco común una serie completa de elementos y disciplinas, siendo esta
la verdadera propiedad que define a los SIG.
Todo el conjunto de conocimientos sobre los cuales se asientan los SIG confor-
man la denominada Ciencia de la Información Geográfica. Bajo esta denominación
se recogen todos los temas a tratar en esta obra.
24 Sistemas de Información Geográfica
Capítulo 2
2.1. Introducción
El desarrollo sufrido por los SIG desde sus orígenes hasta nuestros días es
enorme. La popularización de las tecnologías y los esfuerzos de desarrollo llevados
a cabo por un amplio abanico de ciencias beneficiarias de los SIG, todos han
contribuido a redefinir la disciplina e incorporar elementos impensables entonces.
No obstante, los componentes principales que identifican el núcleo principal de un
SIG se mantienen a lo largo de todo ese desarrollo, y es su aparición la que define
el momento inicial en el que podemos situar el origen de los SIG.
Este momento surge al inicio de la década de los sesenta como resultado de unos
factores que convergen para dar lugar al desarrollo de los primeros SIG. Estos fac-
tores son principalmente dos: la necesidad creciente de información geográfica y de
una gestión y uso óptimo de la misma, y la aparición de los primeros computadores.
Estos mismos factores son los que desde entonces han seguido impulsando
el avance de los SIG, ya que el interés en el estudio y conservación del medio se
incrementa paulatinamente también hoy en día, y ello crea una situación ideal para
la evolución de las técnicas y herramientas empleadas, muy particularmente los SIG.
de numerosos factores externos. Desde este punto, vamos a estudiar cómo esos
factores han ido a su vez evolucionando y cómo su influencia ha condicionado el
rumbo seguido por los SIG. Distinguiremos los siguientes elementos:
ó95.ddddddddddddddddddó96.ddddddddddddddddddó97.ddddddddddddddddddó98.ddddddddddddddddddó99.ddddddddddddddddddv...
Tecnología
Internet Tabletas
Datos
GPS IDEs
ElementsdofdCartography
CAD DesigndwithdNature WebdMapping
Técnicas
Tratamientoddedimagenes
Geoestadistica
Erdasd4..
CGIS GRID GRASS
SIG
unen para constituir una base útil sobre la que construir nuevos desarrollos. Los
SIG ráster incluyen cada vez más elementos vectoriales, los SIG vectoriales cada
vez más elementos ráster, y en ambos se van implementando formulaciones que
trabajan con ambos formatos de almacenamiento y los combinan. De forma similar,
los procesos para análisis de imágenes van ganando su espacio dentro de los SIG
generales, aunque no dejan de existir aplicaciones específicas en este terreno.
Por último, respecto a su presencia social, en nuestros días los SIG han pasado
de elementos restringidos para un uso profesional a ser elementos de consumo y
estar presentes en nuestra vida diaria. Un ejemplo de ello es la aparición de servicios
como Google Maps[13] y la multitud de aplicaciones con interfaces Web basadas en
él que permiten acceder a información geográfica de toda clase. De la mano también
de Google, Google Earth[14] es otra aplicación popular que no está restringida al
uso profesional. Estas aplicaciones acercan los SIG a usuarios no especializados,
dándoles la posibilidad de utilizarlos y aprovechar parte de sus capacidades.
La popularización de los navegadores GPS, que incorporan tanto elementos
de representación como de análisis propios de los SIG, son otro buen ejemplo.
elemento que, como ya se ha dicho, es una de las razones que impulsan al desarrollo
de los SIG como herramientas para una mejor gestión del medio.
Antes de McHarg, ya se habían empezado a realizar análisis cartográficos,
arrancando la línea que llega hasta los procedimientos que actualmente empleamos
en un SIG. Más de cien años antes, John Snow (1813–1858) realizó la que puede
considerarse como una de las primeras experiencias cartográficas analíticas, al
utilizar mapas de puntos para efectuar sus deducciones y localizar en Inglaterra
la fuente de un brote de cólera.
Junto con la componente analítica, otros elementos de la práctica cartográfica
evolucionan similarmente. En 1819, Pierre Charles Dupin crea el primer mapa
de coropletas para mostrar la distribución del analfabetismo en Francia, dando
un gran salto cualitativo en el diseño cartográfico, particularmente en un tipo de
mapas de muy habitual creación dentro de un SIG.
Una vez que los SIG ya han hecho su aparición, entre los elementos que más
han impulsado el desarrollo de estos cabe destacar el gran avance en el estudio del
relieve, de notable importancia por ser un elemento base para muchos otros análisis
en un amplio abanico de ciencias afines. La orografía clásica, con un enfoque
tradicionalmente sustentado en la geología y el análisis geomorfológico, va dando
lugar a una ciencia cada vez más cuantitativa centrada en el análisis morfométrico
del relieve. Trabajos como los de [19] sientan las bases para este tipo de análisis,
que necesitan de un SIG para ser aplicados de forma efectiva.
De igual modo sucede con la geoestadística, una rama de la estadística que
aparece de la mano del francés Georges Matheron a principio de los años sesenta.
Las formulaciones geoestadísticas, hoy parte característica de los SIG, son desarro-
lladas en esa época desde el punto de vista teórico, aunque no son aplicables para un
uso real si no es con el uso de ordenadores, y pierden gran parte de su valor práctico
si no se realiza esta tarea con el concurso de Sistemas de Información Geográfica.
En general, el desarrollo de la estadística encaminado a la adaptación de teorías
y metodologías al ámbito espacial ha tenido un fuerte crecimiento en las últimas
décadas, un hecho muy ligado a la aparición y evolución de los SIG. Uno de los hitos
de este proceso es el desarrollo de [20], que extiende los modelos autoregresivos, de
importancia clave para el análisis de la variación de series temporales, a los datos
espaciales [21].
El desarrollo de otras ramas de conocimiento ha sido igualmente clave para
el enriquecimiento de la ciencia del análisis geográfico. Muchas de ellas, por de-
pender también en gran medida de la componente informática, ha evolucionado
paralelamente a los SIG, pues el desarrollo de las tecnologías ha jugado un papel
similar en ellas.
Otro hecho importante es la aparición de los primeros programa de diseño
asistido por ordenador (CAD) , que coincide con la de los SIG, allá por el final de los
años sesenta. Originalmente pensados para el diseño industrial, pronto pasan a ser
utilizados para el diseño arquitectónico y la delineación de elementos geográficos,
y sus conceptos son incorporados paulatinamente a los SIG. Hoy en día, y cada
vez con más frecuencia, los SIG incorporan capacidades similares a los sistemas
CAD, que permiten tanto la digitalización de cartografía con las herramientas
propias del CAD como la creación de nuevos elementos geográficos. Asimismo, los
formatos habituales de las aplicaciones CAD son soportados por gran número de
SIG, existiendo una cierta interoperabilidad, no obstante muy mejorable. Firmas
como Autodesk tienen presencia en el mercado tanto del SIG como del CAD,
compaginando ambas y compartiendo parcialmente soluciones y elementos.
El avance en el desarrollo de las aplicaciones CAD, y en general de las representa-
ciones gráficas por ordenador, impulsó igualmente la aparición y evolución posterior
de una nueva disciplina: la geometría computacional. Esta denominación se emplea
por primera vez en 1975 [22], siendo hoy el nombre de una rama de la ciencia consoli-
dada y en constante avance. Los algoritmos que componen la geometría computacio-
nal son la base sobre la que se fundamenta el análisis vectorial dentro de un SIG.
2.7. Resumen
A principios de los años sesenta, el creciente interés por la información geográfi-
ca y el estudio del medio, así como el nacimiento de la era informática, propiciaron
la aparición de los primeros SIG.
Desde ese punto hasta nuestros días, los SIG han ido definiéndose en base a
la evolución de la informática, la aparición de nuevas fuentes de datos susceptibles
de ser utilizadas en el análisis geográfico — muy especialmente las derivadas de
satélites —, y del desarrollo de disciplinas relacionadas que han contribuido a
impulsar el desarrollo propio de los SIG.
Siendo en su origen aplicaciones muy específicas, en nuestros días los SIG son
aplicaciones genéricas formadas por diversos elementos, cuya tendencia actual es
a la convergencia en productos más versátiles y amplios.
38 Sistemas de Información Geográfica
Capítulo 3
Trabajar con información georreferenciada requiere conocer una serie de conceptos pre-
vios necesarios para poder realizar correctamente todo tipo de operaciones. Estos conceptos
no son exclusivos del ámbito de los SIG, sino que derivan de otras disciplinas que tradicio-
nalmente han trabajado con este tipo de información, como por el ejemplo la cartografía.
Los datos georreferenciados tienen además una peculiaridad como datos espaciales,
pues son datos que se sitúan sobre la superficie de la Tierra. Por ello, es necesario tener
un conocimiento preciso de la forma de esta, para así tratar con exactitud y rigor la
información con que se trabaja en un SIG. La geodesia es la ciencia que se encarga del
estudio de la forma de la Tierra, y sus fundamentos se encuentran entre los conceptos base
de todo SIG, siendo por tanto necesario conocerlos para poder hacer uso de estos.
En este capítulo veremos algunas ideas esenciales sobre cartografía y geodesia, que
serán de aplicación constante y fundamental en el uso de cualquier SIG.
3.1. Introducción
La característica principal de la información georreferenciada es que tiene una
localización en el espacio, particularmente en el espacio terrestre. Esta localización
se ha de dar por medio de unas coordenadas que la definan de forma adecuada, lo
cual implica la necesidad de establecer un sistema en base al cual expresar dichas
coordenadas.
Si medimos un dato de temperatura necesitamos un sistema de medición
conocido, sin el cual el dato de temperatura en sí carece de valor y significado. Así, no
es lo mismo decir que una temperatura es de 25 grados Celsius o que es de 25 grados
Fahrenheit. Del mismo modo, si a esa temperatura le queremos asociar algún tipo de
información espacial (por ejemplo, el punto exacto en el que fue medida), debemos
establecer un sistema que permita dar sentido a las mediciones que realicemos,
y que posteriormente nos sirva para interpretar los valores de las coordenadas y
poder saber con exactitud dónde está el punto al que estas hacen referencia.
El establecimiento de un sistema de referencia en el que expresar la situación
de un punto dado no es en absoluto una tarea sencilla, y requiere el conocimiento
de abundantes conceptos previos que van desde ideas físicas hasta complejos desa-
rrollos matemáticos y geométricos. Los avances en este campo han sido constantes
desde la antigüedad, y esta evolución es la que ha permitido que en la actualidad
se puedan obtener resultados altamente precisos en el trabajo con información
40 Sistemas de Información Geográfica
r1 −r2
f= (3.2.1)
r1
siendo r1 el semieje mayor y r2 el semieje menor.
El elipsoide es la forma geométrica que mejor se adapta a la forma real de la
Tierra, y por tanto la que mejor permite idealizar esta, logrando un mayor ajuste.
Una vez que se dispone de una expresión teórica para la forma de la Tierra, el
siguiente paso es la determinación de los parámetros que definen esta. En el caso de
utilizar la esfera, hay que calcular su radio. En el caso de asumir el elipsoide como
forma de referencia, deben determinarse las medidas de los semiejes menor y mayor.
Debido a la evolución histórica de la idea de elipsoide de referencia, las medidas
de los semiejes que lo definen no son únicas. Es decir, no en todos lugares y en todas
las circunstancias se emplea un mismo elipsoide caracterizado por unos valores r1 y
Fundamentos cartográficos y geodésicos 43
1
Elipsoide Semieje mayor Semieje menor f
Figura 3.2: Representación gráfica del geoide (Fuente: Misión GRACE (NASA)).
Figura 3.3: Tres superficies fundamentales: superficie real de la Tierra, geoide y elipsoide
(Adaptado de Wikipedia).
La figura 3.3 muestra una comparación esquemática entre las tres superficies:
superficie real de la Tierra, geoide y elipsoide.
tangente al geoide. La altura geoidal en este punto es, como cabe esperar, igual
a cero. La vertical al geoide y al elipsoide son idénticas en el punto fundamental.
Para un mismo elipsoide pueden utilizarse distintos puntos fundamentales, que
darán lugar a distintos datum y a distintas coordenadas para un mismo punto.
Latitud
Longitud
Meridianos 60º
30º
0º
Ecuador
Paralelos
especificando si el punto se sitúa al Este o al Oeste, por ejemplo 32◦ , 12’ 43”
E, o bien utilizando un signo, en cuyo caso los puntos al Oeste del meridiano
de referencia tienen signo negativo.
En la figura 3.4 puede verse un esquema de los conceptos anteriores.
La tabla 3.2 recoge las coordenadas geográficas de algunas ciudades importan-
tes, a modo de ejemplo.
Las coordenadas geográficas resultan de gran utilidad, especialmente cuando
se trabaja con grandes regiones. No obstante, no se trata de un sistema cartesiano,
y tareas como la medición de áreas o distancias es mucho más complicada. Si bien
la distancia entre dos paralelos es prácticamente constante (es decir, un grado
de latitud equivale más o menos a una misma distancia en todos los puntos), la
distancia entre dos meridianos no lo es, y varía entre unos 11,3 kilómetros en el
Ecuador hasta los cero kilómetros en los polos, donde los meridianos convergen.
Figura 3.5: Esquema del concepto de proyección. A los puntos A,B y C sobre la superficie
del elipsoide les asocian equivalentes a,b y c sobre un plano.
Tipos de proyecciones
Las proyecciones se clasifican según la superficie sobre la que se proyectan
los puntos. En el esquema de la figura 3.5, el plano de proyección es ya de por sí
50 Sistemas de Información Geográfica
uno de los cuales abarca una amplitud de 6◦ de longitud. El huso 1 se sitúa entre
los 180◦ y 174◦ O, y la numeración avanza hacia el Este.
En latitud, cada huso se divide en 20 zonas, que van desde los 80◦ S hasta los
84◦ N. Estas se codifican con letras desde la C a la X, no utilizándose las letras I
y O por su similitud con los dígitos 1 y 0. Cada zona abarca 8 grados de longitud,
excepto la X que se prolonga unos 4 grados adicionales.
La figura 3.8 muestra un esquema de la cuadrícula UTM.
Una zona UTM se localiza, por tanto, con un número y una letra, y es en
función de la zona como posteriormente se dan las coordenadas que localizan un
punto. Estas coordenadas se expresan en metros y expresan la distancia entre el
punto y el origen de la zona UTM en concreto. El origen de la zona se sitúa en
el punto de corte entre el meridiano central de la zona y el ecuador. Por ejemplo,
para las zonas UTM en el huso 31, el cual va desde los 0◦ hasta los 6◦ , el origen
se sitúa en el punto de corte entre el ecuador y el meridiano de 3◦ (Figura 3.9).
Para evitar la aparición de números negativos, se considera que el origen no
tiene una coordenada X de 0 metros, sino de 500000. Con ello se evita que las
zonas al Este del meridiano central tengan coordenadas negativas, ya que ninguna
zona tiene un ancho mayor de 1000000 metros (el ancho es máximo en las zonas
cerca del ecuador, siendo de alrededor de 668 kilómetros).
De igual modo, cuando se trabaja en el hemisferio sur (donde las coordenadas
Y serían siempre negativas), se considera que el origen tiene una coordenada Y de
10000000 metros, lo cual hace que todas las coordenadas referidas a él sean positivas.
Para las zonas polares no resulta adecuado emplear el sistema UTM, ya que las
54 Sistemas de Información Geográfica
los sistemas de referencia más habituales y, más aún, para facilitar al usuario la
utilización de todo tipo de información geográfica con independencia del sistema
de coordenadas que se emplee. Para ello, los SIG incorporan los procesos necesarios
para efectuar cambios de coordenadas, de forma que para unos datos de partida
se genera un nuevo conjunto de datos con la misma información pero expresada
en un sistema de coordenadas distinto.
Otra forma en la que los SIG pueden implementar estas operaciones es mediante
capacidades de transformación y conversión «al vuelo», es decir, en tiempo real.
De este modo, pueden introducirse en un SIG datos en sistemas de coordenadas
variados, y el SIG se encarga de cambiar estos a un sistema de referencia base
fijado de antemano. Este proceso tiene lugar de forma transparente para el usuario,
que tiene la sensación de que todos los datos estaban originalmente en el sistema
de trabajo escogido.
Esto exige, lógicamente, que todo dato geográfico se acompañe de información
acerca del sistema de coordenadas que se ha utilizado para crearlo, algo que no
siempre sucede. Veremos más acerca de la importancia de este tipo de información
adicional en el capítulo 31.
3.4. Escala
El concepto de escala es fundamental a la hora de trabajar con cartografía, y
es uno de los valores básicos que definen toda representación cartográfica. Esta
representación ha de tener un tamaño final manejable, con objeto de que pueda
resultar de utilidad y permitir un uso práctico, pero el objeto que se cartografía
(un país, un continente o bien la Tierra al completo) es un objeto de gran tamaño.
Esto hace necesario que, para crear un mapa, se deba reducir o bien el objeto
original o bien el objeto ya proyectado, dando lugar a una versión «reducida» que
ya cumple con los requisitos de tamaño adecuado.
Es decir, imaginemos que aplicamos una proyección cónica sobre el elipsoide,
empleando para ello un cono que cubra dicho elipsoide, el cual tendrá que ser,
lógicamente de gran tamaño (¡hay que cubrir toda la Tierra!). Al desarrollarlo,
el plano que obtenemos tiene miles de kilómetros de lado. Debemos fabricar una
versión «a escala» de este, que será la que ya podamos utilizar.
En este contexto, la escala no es sino la relación de tamaño existente entre
ese gran mapa que se obtiene al desarrollar nuestro cono de proyección y el que
finalmente manejamos, de tamaño más reducido. Conociendo esta relación po-
demos ya conocer las verdaderas magnitudes de los elementos que vemos en el
mapa, ya que podemos convertir las medidas hechas sobre el mapa en medidas
reales. Es importante recordar que esas medidas no son tan «reales», puesto que
la propia proyección las ha distorsionado —lo cual no debe olvidarse—, pero sí
que son medidas en la escala original del objeto cartografiado.
La escala se expresa habitualmente como un denominador que relaciona una
distancia medida en un mapa y la distancia que esta medida representa en la
realidad. Por ejemplo, una escala 1:50000 quiere decir que 1 centímetro en un mapa
equivale a 50000 centímetros en la realidad, es decir a 500 metros. Conociendo este
valor de la escala podemos aplicar sencillas reglas de tres para calcular la distancia
entre dos puntos o la longitud de un elemento dado, sin más que medirlo sobre
el mapa y después convertir el resultado obtenido en una medida real.
Una vez más es preciso insistir que lo anterior es posible siempre bajo las limi-
taciones que la propia proyección empleada para crear el mapa tenga al respecto,
y que dependerán del tipo de proyección que sea en función de las propiedades
métricas que conserva.
De hecho, e independientemente del tipo de proyección, la escala es comple-
tamente cierta únicamente en determinadas partes del mapa. Cuando decimos
que un mapa tiene una escala 1:50000, este valor, denominado Escala Numérica,
se cumple con exactitud tan solo en algunos puntos o líneas. En otros puntos la
escala varía. La relación entre la escala en esos puntos y la Escala Numérica se
conoce como Factor de Escala.
A pesar de que la escala es imprescindible para darle un uso práctico a todo
mapa, y cualquier usuario de este debe conocer y aplicar el concepto de escala de
Fundamentos cartográficos y geodésicos 57
forma precisa, los SIG pueden resultar engañosos al respecto. Aunque la escala
como idea sigue siendo igual de fundamental cuando trabajamos con información
geográfica en un SIG, las propias características de este y la forma en la que dicha
información se incorpora en el SIG pueden hacer que no se perciba la escala como
un concepto tan relevante a la hora de desarrollar actividad con él.
Esto es debido principalmente a que la escala tiene una relación directa con
la visualización, ya que se establece entre la realidad y una representación visual
particular, esto es, el mapa. Como ya se ha mencionado en el capítulo 1, los datos en
un SIG tienen carácter numérico y no visual, y la representación de estos se encarga
de realizarla el subsistema correspondiente a partir de dichos datos numéricos. Es
decir, que en cierta medida en un SIG no es estrictamente necesaria la visualización
de los datos, y cuando esta se lleva a cabo no tiene unas características fijas, ya
que, como veremos, el usuario puede elegir el tamaño con el que estos datos se
representan en la pantalla.
Un mapa impreso puede ampliarse o reducirse mediante medios fotomecánicos.
Sin embargo, no es esta una operación «natural», y está claro que desde el punto
de vista del rigor cartográfico no es correcta si lo que se hace es aumentar el tamaño
del mapa. En un SIG, sin embargo, es una operación más el elegir la escala a la que
se representan los datos y modificar el tamaño de representación, y esta resulta
por completo natural e incluso trivial[25].
Pese a ello, los datos tienen una escala inherente, ya que esta no está en función
de la representación, sino del detalle con que han sido tomados los datos, y esta
escala debe igualmente conocerse para dar un uso adecuado a dichos datos. En
este sentido es más conveniente entender la escala como un elemento relacionado
con la resolución de los datos, es decir, con el tamaño mínimo cartografiado.
Esta concepción no es en absoluto propia de los SIG, ya que deriva de las
representaciones clásicas y los mapas impresos. Se sabe que el tamaño mínimo que
el ojo humano es capaz de diferenciar es del orden de 0,2 mm. Aplicando a este
valor la escala a la que queremos crear un mapa, tendremos la mínima distancia
sobre el terreno que debe medirse. Por ejemplo, para el caso de un mapa 1:50000,
tenemos que la mínima distancia es de 10 metros
Si medimos puntos a una distancia menor que la anterior y después los repre-
sentamos en un mapa a escala 1:50000, esos puntos no serán distinguibles para
el usuario de ese mapa, y la información recogida se perderá. Estos razonamientos
sirven para calcular la intensidad del trabajo que ha de realizarse para tomar los
datos con los que después elaborar una determinada cartografía.
En realidad, el concepto de escala no es único, sino que tiene múltiples facetas.
Por una parte la escala cartográfica, que es la mera relación entre el tamaño en
el mapa y la realidad. Por otra, la escala de análisis u operacional[26], que es la
que define la utilidad de los datos y lo que podemos hacer con ellos, ya que indica
las limitaciones de estos. Cuando en un SIG aumentamos el tamaño en pantalla
de una cierta información geográfica, estamos variando la escala cartográfica, pero
58 Sistemas de Información Geográfica
no estamos modificando la escala de análisis. Por ello, por mucho que ampliemos
no vamos a ver más detalles, ya que para ello sería necesario tomar más datos.
Veremos más ideas sobre la escala de análisis y algunas implicaciones al respecto
en el capítulo 9, al inicio de la parte dedicada a los procesos, ya que estos conceptos
son fundamentales para realizar correctamente análisis y operaciones como las
descritas en esa parte del libro.
Un tipo de datos espaciales particulares con los que se trabaja en un SIG, los
datos ráster, tienen a su vez un parámetro de resolución, con una clara relación
con el concepto de escala. Veremos más al respecto en el capítulo 5.
de las casas, sino solo el contorno de cada manzana. La figura 3.10 muestra un
ejemplo de esta técnica aplicado a elementos lineales, en particular carreteras.
Exageración. En ocasiones, mantener el objeto a la escala que le corres-
ponde haría que no se pudieran apreciar las características de este. En este
caso, se exagera su tamaño para que pueda interpretarse con mayor facilidad
y no perder información en la representación.
Desplazamiento. Un objeto se representa en una posición distinta a la que
le corresponde, con el fin de garantizar su visibilidad y obtener un resultado
más claro.
Combinando operaciones como las anteriores de forma adecuada, se obtiene
una cartografía mucho más útil, en la cual la información que contiene resulta más
accesible y práctica, con un mayor potencial desde todos los puntos de vista. En
el caso de trabajar en un SIG, algunas de estas operaciones, como pueden ser la
simplificación o la agregación, tiene también un efecto beneficioso sobre el propio
manejo de los datos dentro del SIG.
Estas operaciones se enumeran aquí como ideas a aplicar para efectuar la
generalización de un documento geográfico, como corresponde a este capítulo
de fundamentos y conceptos cartográficos básicos. No obstante, estas mismas
operaciones también las veremos en otras partes del libro, ya que no son exclusivas
de esta parte. Por su importante papel en la representación visual de los datos,
veremos más al respecto en la parte dedicada a visualización. Algunos algoritmos
para la simplificación y suavizado de líneas los estudiaremos en la parte dedicada
a procesos, particularmente en el apartado 18.7.
Fundamentos cartográficos y geodésicos 61
ción de datos a diferente escala de trabajo. Esto es así debido a que la representación
de elementos tales como carreteras o lagos se hace mediante una interpretación de
esos objetos, y este proceso es en cierta medida subjetivo, como vimos. En el caso
de imágenes no hay que interpretar objeto alguno, ya que esos objetos ya «están»
representados en la imagen, y únicamente es necesario disminuir la escala.
Los algoritmos para llevar a cabo este proceso se conocen como de remuestreo,
y los veremos con detalle en el capítulo 14. Algunos SIG utilizan estos algoritmos
para hacer más fluido el manejo de grandes imágenes mediante la creación de las
denominadas pirámides. Cuando el usuario introduce en el SIG una imagen de gran
tamaño, este prepara varias versiones de esa imagen a distintas escalas de detalle,
de forma que posteriormente pueda recurrir a la que sea más conveniente en cada
caso en función de la escala de representación. Es decir, el SIG realiza la «gene-
ralización» de esa imagen de forma automática, siendo necesario proporcionarle
únicamente la imagen de mayor detalle. La figura 3.12 ilustra gráficamente esto.
3.6. Resumen
La cartografía y la geodesia son ciencias que aportan un importante conjunto
de conocimientos y elementos al mundo de los SIG, y su estudio es fundamental
para cualquier trabajo con un SIG.
La geodesia se encarga de estudiar la forma de la Tierra, con objeto de posterior-
mente poder localizar de forma precisa los puntos sobre esta mediante un sistema
de coordenadas. Dos conceptos básicos en geodesia son el geoide y el elipsoide,
superficies de referencia que modelizan la forma de la Tierra. El primero es la
superficie formada por los puntos en los que el campo gravitatorio tiene una misma
intensidad, y se obtiene prolongando la superficie de los océanos en reposo bajo
la superficie terrestre. El segundo es un objeto definido por una ecuación y una
serie de parámetros, que permite asimilar la Tierra a una superficie matemática.
El conjunto de un elipsoide y un punto de tangencia con la superficie terrestre
(Punto Fundamental), forma un datum.
Para asignar coordenadas a un punto en función de los elementos anteriores
es necesario definir un sistema de referencia. Las coordenadas geográficas han sido
utilizadas tradicionalmente, y son de utilidad para grandes zonas. Otro tipo de
coordenadas más intuitivas son las cartesianas, y para su obtención se requiere
el concurso de una proyección cartográfica que convierta coordenadas espaciales
en coordenadas planas. Hay muchos tipos de proyecciones, siendo el sistema UTM
uno de los más extendidos.
En el ámbito de la cartografía, hemos visto en este capítulo la importancia del
concepto de escala, que no pierde su papel fundamental al trabajar en un SIG en
lugar de hacerlo con cartografía impresa. Estrechamente relacionada con la escala
encontramos la generalización, que comprende una serie de procesos encaminados
a la obtención de una representación lo más clara posible de una serie de datos
a una escala dada.
Parte II
Los datos
Capítulo 4
Los datos son el elementos clave de un SIG, pues sin ellos el resto de componentes no
tienen utilidad alguna. La preparación de un adecuado conjunto de datos es base para poder
llevar adelante con garantías todo proyecto SIG. En este capítulo veremos las características
fundamentales de los datos y de la información espacial, presentando los conceptos básicos
de estos que deben tenerse siempre presentes a la hora de trabajar con un SIG
4.1. Introducción
información geográfica con un volumen de datos mejor, lo cual resulta ventajoso. Ve-
remos algunos de estos planteamientos más adelante dentro de esta parte del libro.
Aspectos como estos son realmente mucho más complejos, y el estudio de la
relación entre datos e información y sus características no es en absoluto sencilla.
Existe una disciplina, la ciencia de la información dedicada a estudiar los aspectos
teóricos relativos a la información y la forma en que esta puede contenerse en los
datos. El lector interesado puede consultar [30, 31] para saber más al respecto.
En este capítulo de introducción a esta parte dedicada a los datos, veremos
más acerca de la información que de los datos espaciales, pues la manera en que
concebimos esta condiciona la forma de los datos. Será en el capítulo siguiente
cuando tratemos ya los datos, abordando uno de los problemas fundamentales:
la creación del dato espacial.
temática (la propia temperatura) está medida, y la componente espacial está fija
(el termómetro que registra los valores se encuentra siempre en un punto inmóvil)
En general, la información geográfica se recoge haciendo fija la componente
temporal, y midiendo o controlando las restantes en función del tipo de información
de que se trate.
Un concepto a tener en cuenta en relación con las componentes de la información
geográfica es la dimensión. Los elementos que registramos pueden ir desde sencillos
puntos (0D) hasta volúmenes tridimensionales (3D). Un caso particular —y muy
frecuente— lo encontramos cuando estudiamos la forma tridimensional del terreno,
pero tratando la elevación como variable temática, no como una parte más de la com-
ponente espacial. En este caso, tenemos una serie de valores de elevación (Z) locali-
zados en el plano XY. Esto no es realmente equivalente a utilizar una componente
espacial tridimensional, ya que no permite recoger en un mismo punto distintos valo-
res (no puede, por ejemplo, modelizarse la forma de una cueva o un objeto vertical),
por lo que se conoce como representación en 2.5 dimensiones (2.5D). La figura 4.1
muestra esquemáticamente el concepto de dimensión de los datos dentro de un SIG.
si cada uno de esos bloques está almacenado en un fichero, resulta incluso posible,
unirlos todos y crear un solo fichero que los contenga.
Una de las razones principales que favorecen esta combinación de datos es el
hecho de que la escala nominal es en sí un elemento de representación. Como vimos
en el apartado 3.4, la escala nominal relaciona el tamaño que tiene un objeto en
la representación con su tamaño real, y la forma en que se recoge la información
a la hora de realizar medidas de ese objeto viene condicionada por dicha escala,
de tal modo que el esfuerzo desarrollado en esas mediciones sea coherente con la
representación que se va a hacer posteriormente al crear el mapa.
Los datos que manejamos en un SIG tiene una escala de detalle impuesta por
la precisión de las mediciones, pero no una escala nominal asignada, ya que no
tienen un tamaño fijo de representación en la pantalla del ordenador o el periférico
correspondiente, al contrario que un mapa impreso en el que los distintos elementos
ya se encuentran representados. Esto hace que combinar cartografía clásica a
distintas escalas sea complejo, ya que los mapas no «casan» bien entre sí.
En el caso de un SIG, es el usuario el que decide la escala de representación, y
esta será la misma para todos los datos que se visualicen, independientemente de las
características de estos. En el contexto actual de datos geográficos, es habitual en-
contrar situaciones en las que para una zona de terreno disponemos de información
a una escala, y para otra zona contigua a esta la información disponible es a una
escala distinta. Con el uso de un SIG, sin embargo, es posible trabajar sin problemas
con todo el conjunto, sin preocuparse por la integración de sus distintas partes.
Lógicamente, no debe dejarse de lado nunca el rigor cartográfico y, como se dijo
en su momento, no olvidar que, aunque podamos representar cualquiera de esos
datos a la escala que deseemos, los datos en sí no son suficientes para ello y tienen
unas limitaciones impuestas por su escala inherente. Es decir, que no es necesario
preocuparse por la integración a la ahora de visualizar y gestionar los datos, pero
sí a la hora de analizarlos u obtener resultados a partir de ellos. No obstante, el
proceso de combinación es en cualquier caso transparente para el usuario que
visualiza esos datos en un SIG, y la operación pasa de ser algo tedioso y complejo
a algo prácticamente inapreciable dentro del SIG, pues es este quien se encarga
de ocultar toda esa complejidad y simplemente generar las representaciones según
los parámetros requeridos en cada momento.
La figura 4.2 muestra un ejemplo de lo anterior en el que puede verse cómo
varias fotografías aéreas forman un mosaico que cubre una zona dada, teniendo
estas distinto nivel de detalle tal y como puede apreciarse.
Figura 4.2: Integración de datos en sentido horizontal. A pesar de que la escala de detalle
es distinta para las fotografías aéreas de la imagen, estas se combinan sin problema
en un SIG, representándose a una escala dada todas ellas de forma sencilla. Nótese la
mayor definición en la parte inferior de la imagen, que se forma con imágenes tomadas
a una escala distinta a la de las de la parte superior. Adviértase igualmente la distinta
iluminación, ya que han sido tomadas en fecha y horas distintas.
es enorme, pues realmente constituye el marco básico sobre el que se van a llevar
a cabo gran parte de las operaciones. Algunas de las posibilidades que brinda
esta filosofía ya las conocemos. Por ejemplo, vimos en el apartado dedicado a la
generalización cartográfica cómo en un SIG podemos utilizar diferentes «versiones»
de los datos correspondientes a una zona concreta, y representar una u otra de
ellas en función de la escala de trabajo. Para un tipo de información, por ejemplo
los usos del suelo, estas versiones se almacenarán como distintas capas. La capa
es así la unidad fundamental no solo en términos de un área dada, sino también de
una escala concreta, y permite una división de los datos óptima a todos los efectos.
Al igual que veíamos en el apartado anterior, las capas nos van a permitir la
combinación de datos a distinta escala, no ya en este caso datos contiguos, sino
datos correspondientes a un mismo área pero con variables distintas. Esto es de
gran utilidad en el trabajo habitual, ya que no todas las variables se recogen con
un mismo nivel de detalle, y el detalle con el que podemos encontrar una capa de
elevaciones va a ser generalmente mucho mayor que el que cabe esperar para una
capa de, digamos, litología.
En realidad, y en el lenguaje habitual de trabajo con SIG, la capa no define
únicamente una división vertical, sino también una horizontal. Es más sencillo
visualizar la idea de capa con un esquema como el de la figura 4.3, en el que las
distintas variables se «apilan» en capas de información superpuestas. Sin embargo,
las divisiones horizontales en un mosaico de datos también se consideran como
capas distintas en un SIG, pese a contener una misma variable y un mismo tipo
de información. Por tanto, y aunque la división vertical sea la que verdaderamente
define la idea de capa, cuando hablamos de una capa de datos en un SIG nos
referimos a un «trozo» de toda la información disponible, que implica una sección
en la dimensión vertical (la de las variables existentes que pueden estudiarse) y
un recorte en la horizontal (la de la superficie geográfica).
Las capas pueden emplearse también para incorporar en cierta forma la variable
temporal si se considera que la dimensión vertical es el tiempo. Aunque no es
la manera más adecuada, y en la actualidad el manejo del tiempo es uno de los
principales problemas a resolver en el diseño de los SIG, podemos trabajar con
varias capas que representen una misma información y una misma zona, pero en
instantes distintos. Esto no es distinto a trabajar con mapas clásicos correspon-
dientes a diferentes instantes, salvo que en el caso de capas cada elemento de la
información se encuentra separado a su vez.
Por último, es importante el hecho de que la separación de la información
en capas evita la redundancia de datos, ya que cada capa contiene un tipo de
información concreto. En un mapa clásico se presentan siempre varias variables,
algunas de ellas presentes con carácter general, tales como nombres de ciudades
principales o vías más importantes de comunicación. Es decir, que un mapa de
usos de suelo o un mapa geológico van a contener otras variables, que en ocasiones
se añaden a este para enriquecerlo. Unas curvas de nivel, por ejemplo, permitirán
una mejor interpretación de esa geología.
Al dividir toda la información en capas, podemos combinar curvas de nivel y
geología, añadir otros elementos, o bien representarlas de forma aislada, algo que no
resulta posible si los datos de los que disponemos ya vienen unidos inseparablemente,
como sucede en el caso de la cartografía impresa. La división en capas ofrece un
mayor número de posibilidades distintas de trabajo y, como iremos viendo a lo largo
de gran parte de este libro, también mayores posibilidades de análisis y proceso.
En resumen, el trabajo con capas permite una estructura más organizada y
una mayor atomización de los datos, con las consecuentes ventajas en el almace-
namiento, manejo y funcionalidad que esto conlleva.
4.6. Resumen
Los datos son una de las piezas más importantes del sistema SIG. Entendemos
por dato un conjunto de valores o elementos que representan algo. La interpretación
correcta de esos datos los dota de significado y produce información.
La información geográfica tiene dos componentes: una componente temática
y una componente geográfica. Estas van unidas y conforman una unidad única
de información geográfica, aunque pueden separarse y analizarse por separado.
Mientras que la componente geográfica tiene un carácter fundamentalmente nu-
mérico, la componente temática puede incluir una o varias variables y estas ser
de naturaleza muy variada.
La información geográfica se divide horizontal y verticalmente. Las unidades
mediante que incorporamos esta información a un SIG se conocen como capas, y son
uno de los elementos primordiales en la estructura de manejo de datos de todo SIG.
El trabajo con capas más hace transparente la gestión de la información geográfica
en un SIG, permite una mejor integración de distintos datos, y es la base para
muchas operaciones, algunas de las cuales iremos viendo en capítulos sucesivos.
78 Sistemas de Información Geográfica
Capítulo 5
La realidad geográfica debe recogerse en un formato que pueda ser entendido por el
ordenador y así susceptible de emplearse dentro de un SIG. En este capítulo se mostrarán
los enfoques conceptuales y prácticos más frecuentes para llevar esto a cabo, que a su vez
son los responsables indirectos de las arquitecturas subyacentes en los SIG. Para ello, se
estudiarán los distintos tipos de información con los que trabajamos en un SIG y las formas
más adecuadas de entender, interpretar y manejar esta.
5.1. Introducción
Los datos son, como ya sabemos, una parte imprescindible del SIG, ya que sin
ellos las aplicaciones SIG y los restantes elementos que se encuentran en torno a estas
no tienen utilidad alguna. Necesitamos conocer el área geográfica que estudiamos
en un SIG (es decir, tener datos sobre ella), para así poder proceder a dicho estudio.
No obstante, convertir ese área geográfica y la información acerca de ella en
un dato susceptible de ser incorporado a un SIG no resulta una tarea sencilla.
Desde los orígenes de los SIG, una de las preocupaciones principales ha sido la de
representar de la mejor manera posible toda la información que podemos extraer
de una zona geográfica dada, de tal modo que pueda almacenarse y analizarse en el
entorno de un SIG. Este proceso de representación, que ya desde el inicio planteaba
problemas a los creadores de los primeros SIG, ha sido el responsable en gran
medida de la arquitectura y forma de los SIG actuales, y a él se debe en buena parte
el desarrollo que han experimentado tanto los SIG en sí como las disciplinas afines.
Describir los enfoques teóricos existentes para convertir la realidad relativa
a una variable dada en una capa que la contenga de la forma más precisa posible
y pueda ser empleada en un SIG es el objeto de este capítulo. Este proceso implica
la construcción de un modelo (el dato geográfico), que representa la realidad y
puede servir para conocer esta en profundidad a través de análisis que no se llevan
a cabo sobre dicha realidad, sino sobre el modelo en sí.
El problema principal reside en el hecho de que el detalle real que encontramos
en la naturaleza es prácticamente infinito, mientras que la representación y almace-
namiento de esa realidad es finita. Se hace necesario extraer una serie de elementos
y valores característicos, los cuales en ultima instancia se recogerán como valores
numéricos dentro del SIG (pues son estos los que maneja un ordenador), y podrán
80 Sistemas de Información Geográfica
5.2.1. Campos
Un campo es un modelo de variación dentro de un marco n–dimensional, en el
cual en cada punto dentro de dicho marco se tiene un valor de la variable estudiada.
En su concepto matemático, un campo es una función de la forma ϕ : Rn → Rm ,
esto es, una función que asocia cada punto de un espacio vectorial con otro en un
espacio vectorial distinto.
En el caso más habitual, m = 1, es decir, que a cada punto del espacio vectorial
origen se le asocia un único valor escalar. Se tiene así lo que se denomina un campo
escalar. La mayoría de las variables que se emplean en un SIG necesitan un único
valor para describirse (piénsese en variables como la elevación, la temperatura o
la presión atmosférica, que solo requieren de un número para expresarse), por lo
que los campos escalares son los más habituales en el ámbito geográfico.
No obstante, también encontramos los denominados campos vectoriales 1 , en el
1
El empleo del término vectorial para calificar a los campos vectoriales o los espacios
Modelos para la información geográfica 81
Cada una de dichas entidades posee unas características propias, constantes para
toda ellas, que son las que conferirán sus propiedades particulares a los puntos
que se sitúen en su interior.
Un punto puede no pertenecer a ninguna entidad, o bien a varias de ellas, según
sea la disposición de estas. Para un espacio dado, las entidades pueden ser todos
aquellos elementos geométricos existentes en el mismo, tales como puntos, líneas,
polígonos o, en el caso de ser dicho espacio de dimensión mayor que dos, también
volúmenes.
Es fácil ver que el modelo de entidades discretas no es tan adecuado como los
campos para conceptualizar variables continuas, ya que la continuidad de estas es
opuesta al esquema discreto planteado. No obstante, otras variables no continuas se
modelizan mejor mediante entidades discretas, ya que la forma en que se presentan
coincide en cierta medida con dichas entidades como unidades mínimas.
La presencia de vías de comunicación, por ejemplo, se puede asimilar perfec-
tamente a este modelo. Se tiene un espacio vacío (sin vías), en el cual se disponen
los distintos viales en una serie de localizaciones concretas. Hay puntos que no
estarán afectados por ninguna entidad, mientras que otros (los situados en las
intersecciones) lo están por varias de ellas.
Las variables de tipo nominal y alfanumérico —las cuales no son, como vimos,
continuas— tales como el tipo de suelo en un punto o el número de parcela catastral
al que pertenece dicho punto, también se adaptan bien al modelo de entidades
discretas.
Otra diferencia entre los campos y las entidades discretas es que estas últimas
son en general más sencillas de comprender como concepto fuera de un ámbito
técnico. Los campos son conceptos matemáticos que requieren un mayor grado
de abstracción, y para la mayoría de la gente no resultan tan claros. Como algunos
apuntan [35], el lenguaje habitual contiene un numero mayor de expresiones y
recursos para describir la realidad geográfica en base a entidades discretas que en
base a campos o conceptos abstractos similares.
figura 5.1 pueden verse distintas formas de representar la elevación de una zona,
la cual, como ya sabemos, es una variable continua y puede concebirse mediante
un campo escalar. Por el contrario, la red viaria se adapta mejor a un modelo
de entidades discretas, y se muestran en la figura 5.2 sendas representaciones de
esta variable según distintos modelos de datos. Mediante los ejemplos de estas
figuras presentaremos los modelos de datos principales, así como su relación con
los modelos conceptuales estudiados en el punto anterior.
Figura 5.1: Distintas formas de representar una capa con información altitudinal.
Figura 5.2: Distintas formas de representar una capa con información sobre una red viaria.
a) b)
Figura 5.3: Comparación entre los esquema del modelo de representación vectorial (a)
y ráster (b).
Podemos entender estos enfoques haciendo uso del esquema de Sinton presenta-
do con anterioridad. En el modelo vectorial controlamos la definición de los valores
asociados, y medimos la localización y forma de estos, dejando fijo el tiempo. En
el modelo ráster, aunque la componente temporal también es fija, la componente
que controlamos es la espacial (a través de la sistematicidad de la malla), mientras
que medimos la naturaleza de los valores en cada una de las celdas.
Antes de pasar a la definición detallada de los modelos ráster y vectorial,
mencionar que, como modelos principales empleados para la definición de capas de
86 Sistemas de Información Geográfica
información geográfica, las expresiones capa vectorial y capa ráster son de uso habi-
tual, y se emplearán de aquí en adelante tanto en este como en posteriores capítulos.
Figura 5.4: Celdas de una malla ráster con sus valores asociados.
(x,y) d
N
(x',y')
x' = x + 4d
y' = y + 2d
Figura 5.5: La estructura regular de la malla ráster permite conocer las coordenadas de
las celdas sin necesidad de almacenar estas, sino tan solo recogiendo algunos parámetros
de la malla como la localización de una celda base (x,y), la orientación global o el tamaño
de celda (d).
Figura 5.6: Aunque la zona de estudio no tenga orientación Norte–Sur, los SIG trabajan
habitualmente con esta orientación, y las imágenes deben adecuarse a ello.
dicha imagen, causa la aparición de zonas sin información (en negro). Esto implica
por una parte la necesidad de almacenar un gran número de valores sin interés,
y por otra la necesidad de especificar de algún modo que todas esas celdas que
aparecen en negro en la imagen son realmente celdas para las cuales no se dispone
de información. Esto último se suele llevar a cabo mediante la definición de un
valor arbitrario que indique la falta de datos (denominado generalmente valor de
sin datos), que codifica tal situación, de tal modo que pueden ignorarse las celdas
con dicho valor a la hora de representar o analizar la capa ráster en cuestión.
El otro parámetro necesario junto con la orientación de la malla y la situación
geográfica de una de sus celdas es el denominado tamaño de celda o tamaño de píxel,
también conocido como resolución, pues, en efecto, su magnitud define la resolución
de la capa. Un tamaño de celda mayor implica una menor resolución, y viceversa.
Además de servir para el cálculo de coordenadas de las celdas y definir la
estructura de la malla, el tamaño de celda permite calcular áreas, ya que establece
el área ocupada por cada celda. Asimismo, y como aspecto más relevante, el tamaño
de celda determina la precisión con la que se recoge una variable dentro de una
capa ráster, y puede considerarse como el equivalente conceptual a la escala de
dicha capa. Por esta razón, es importante trabajar con capas ráster de un tamaño
de celda adecuado para el tipo de análisis o tarea que quiera desarrollarse.
Así, un análisis microtopográfico en el cual resulta necesario registrar la va-
riación del relieve a pequeña escala no puede llevarse a cabo con una capa de
elevaciones con tamaño de celda de 100 metros, ya que toda la variabilidad menor a
esos 100 metros se pierde. No debe olvidarse que cada celda registra un único valor
de la variable, y esta se considera constante dentro de dicha celda. Un tamaño de
100 metros implicaría la recogida de un único valor para cada hectárea de terreno,
lo cual no es suficiente en este caso.
Muchos son los factores que influyen en el tamaño de celda de una capa ráster,
entre ellos las características de los datos iniciales con los que se ha creado dicha
capa o los medios particulares con que estos han sido recogidos. En la figura
5.7 pueden observarse dos imágenes aéreas del juego de datos de ejemplo (las
imágenes son un tipo particular de capa ráster, como en breve veremos), con
distinta resolución. Esta, al ser distinta, las hace válidas para uno u otro tipo de
uso. Vemos claramente que en en la imagen en blanco y negro (cuyo tamaño de
píxel es de 5 metros) se distinguen las distintas áreas de cultivo, mientras que en
la imagen en color (con tamaño de píxel de 25 metros), estos no se distinguen.
Todos aquellos análisis que requieran disponer de información por debajo de esos
25 metros, no podrán ser llevados a cabo con esta última imagen.
Para el caso de capas ráster de variables continuas, en la sección 13.2.8 se da
información detallada sobre cómo definir el tamaño de celda óptimo a la hora de
crear estas a partir de datos de otra clase tales como datos vectoriales.
Una vez conocemos el formato ráster, podemos relacionarlo con lo que ya
hemos visto relativo a los modelos geográficos. En primer lugar, y por sus propias
90 Sistemas de Información Geográfica
Figura 5.7: Imágenes de diferente resolución en función del sensor con que han sido
obtenidas. Al tener distintos tamaños de píxel, servirán para distintos usos dentro de un SIG.
datos con otro tipo de información, haciendo que este sea sumamente más sencillo,
al compartir el modelo de representación.
Mientras que, como hemos visto en los ejemplos, una misma información se
puede recoger en formatos ráster y vectorial, las imágenes se recogen únicamente
en formato ráster, tanto por ser ese modelo mucho más adecuado, como por ser
mucho más coherente con el tipo de información y la procedencia de esta.
El concepto de celda en una malla ráster es el equivalente al de píxel3 , bien
conocido en el campo de las imágenes digitales. Así, cuando decimos que una
cámara digital tiene tres megapíxeles, queremos decir que captura un total de tres
millones de píxeles. De otra forma, la malla ráster que se genera tiene tres millones
de celdas. Las imágenes con las que trabajamos en un SIG no se diferencian de
las que tomamos con una cámara digital, salvo en el hecho particular de que
representan una porción de terreno dentro de un sistema de coordenadas dado,
pero la estructura es la misma: una malla de celdas (píxeles).
Otra particularidad de las imágenes es la presencia de bandas. Los valores reco-
gidos en las imágenes indican de forma general la reflectancia en una determinada
longitud de onda (esto se explica con mayor detalle en los capítulos 6 y 16). Puesto
que el espectro de radiación puede subdividirse en distintos grupos, los sensores
que toman estas imágenes recogen varias capas, una para cada uno de estos grupos.
En lugar de almacenarse como un conjunto de capas separadas, es más frecuente
que lo hagan en una única que contiene varias bandas, es decir, varios niveles
distintos, cada uno de los cuales podría constituir por sí mismo una capa ráster.
Se trata de una diferencia más de tipo formal, pero de cierta importancia,
puesto que no todos los SIG están preparados para manejar capas ráster con
independencia de su número de capas. Imágenes con una única banda, o tres, son
habituales y soportadas en la mayoría de implementaciones, mientras que números
mayores de bandas no se encuentran soportados en muchos programas.
Todos estos conceptos se extenderán en el capítulo 6.
Figura 5.9: Casos particulares de polígonos: a) varios polígonos disjuntos en una misma
entidad (en este caso, mismo país), b) Polígonos con islas (huecos).
por ejemplo, para el caso del área total de polígonos de una única entidad, ya que
el área del hueco debe ser restada de la total.
En la figura anterior, vemos como Sudáfrica presenta esta situación, ya que
dentro del territorio del país hay zonas aislada que no pertenece a Sudáfrica, como
por ejemplo la que constituye el Reino de Lesotho.
Como se muestra en la figura 5.10, el conjunto del territorio ocupado por Sudáfri-
ca y las zonas interiores que no pertenecen al país no puede verse como un conjunto
de polígonos sin más. Para representar Sudáfrica de forma aislada es necesario «res-
tar» del polígono que engloba todo el territorio los polígonos respectivos a los países
interiores. De no hacerlo así, un cálculo sencillo tal y como el del área de dicho país
arrojará un resultado erróneo, pues considerará igualmente estas zonas interiores.
En realidad, los huecos se registran como polígonos disjuntos que pertenecen a
la entidad, aunque en lugar de representar un territorio que se añade, representan
uno que se «quita». Una forma habitual de hacer esto es almacenar las coordenadas
de los vértices de estos polígonos interiores en sentido inverso, de tal modo que
su área es negativa. De esta forma, la suma total del área de los polígonos de la
entidad es igual al área buscada4 .
Dentro de un SIG, una capa vectorial puede contener un único tipo de primitiva.
Así, tenemos capas vectoriales de puntos, de líneas y de polígonos, respectivamente.
4
La fórmula empleada para el cálculo del área de un polígono se expone en la página 253
94 Sistemas de Información Geográfica
Figura 5.10: Los huecos de un polígono han de considerarse como parte de este.
La elección de uno u otro tipo de capa para registrar una variable o conjunto de
ellas ha de ser función del tipo de fenómeno que se pretende modelizar con dicha
capa o la precisión necesaria, entre otros factores.
Por ejemplo, una capa de puntos puede representar un conjunto de ciudades,
cada una de ellas definida como un único punto. Sin embargo, puede emplearse
una capa de polígonos y no recoger una única coordenada (correspondiente, por
ejemplo, al centro de la ciudad), sino el contorno o los límites administrativos de
esta. Dependiendo del caso, será más apropiado elegir una u otra alternativa.
De igual modo, la capa de vías representada en la figura 5.2 es una capa de
líneas. Cada línea, como elemento teórico de ancho nulo, representa el eje de la vía.
Si se requiere una mayor precisión en la definición de la superficie de rodadura de
dichas vías, una capa de polígonos puede ser utilizada en lugar de una de líneas.
Lo anterior tiene una evidente relación con los conceptos de escala y genera-
lización que vimos en el capítulo 3.
No debe pensarse que las capas vectoriales, sean del tipo que sean, se emplean
únicamente para recoger fenómenos o elementos cuya forma coincide con la de las
primitivas geométricas (es decir, puntos para recoger elementos puntuales, líneas
para aquellos elementos con una dimensión mucho menor que la otra, y polígonos
para el caso de superficies). Además de los ejemplos anteriores, debemos recordar
que el modelo vectorial también sirve para representar campos y recoger variables
tales como la elevación.
Así, en los ejemplos de la figura 5.1 encontramos capas de puntos, lineas (curvas
de nivel) y polígonos (TIN), todas ellas empleadas para representar la variable ele-
vación. En ocasiones se emplean las primitivas para recoger objetos reales de forma
similar, mientras que en otros casos sirven para plantear un modelo lógico y recoger
variables que no se asemejan de modo alguno a las formas geométricas registradas.
A propósito de la capa de puntos regulares, cabe pensar que es similar en
concepto y forma a la malla ráster, ya que es regular. Sin embargo, existen dos
Modelos para la información geográfica 95
indica [15], esta forma de conectar las componentes espacial y temática es apta para
el análisis, pero el manejo de los atributos requiere la presencia de una base de datos.
El establecimiento de las bases de datos, su manejo y su implementación
dentro de un SIG es un tema altamente complejo. La forma en que el manejo de
la componente temática y la gestión de la base de datos se establecen, así como
la imbricación de la una en la otra, es la materia exclusiva del capítulo 8, donde
todos estos temas se desarrollarán con profundidad.
Topología
Un elemento particular del modelo de representación vectorial es la topología.
En términos matemáticos la topología estudia las características de los objetos
geométricos que no varían al aplicar una transformación topológica tal como,
por ejemplo, una transformación afín. Si tomamos un mapa y lo distorsionamos,
los ángulos, las superficies y las distancias se ven afectadas. Sin embargo, otras
propiedades tales como la adyacencia entre elementos o las relaciones entre estos
se conservan. Por ejemplo, si una ciudad está dentro de una determinada provincia
en un determinado mapa, no existe forma de distorsionar esta para lograr que
dicha ciudad se encuentre fuera de la provincia.
En el ámbito de los SIG se entiende la topología desde un punto de vista menos
estricto y más funcional. En general, se dice que una capa de información tiene
topología si en ella se almacenan de algún modo las relaciones entre los distintos
elementos que la componen. En caso contrario, la capa es de tipo puramente carto-
gráfico, ya que los elementos que contiene no presentan relación entre sí, o al menos
esta relación no está almacenada junto a la propia información de estos elementos.
En una capa ráster, las relaciones topológicas vienen implícitas en el propio
modelo ráster, y son ajenas a la información como tal, dependiendo de la estructura
de la malla de datos en sí. En el modelo vectorial, sin embargo, se recoge la informa-
ción relativa a cada elemento de forma individual, y si las relaciones existentes no
se registran de modo explicito, no se tendrá posteriormente información sobre ellas.
Disponer de topología en una capa vectorial es de gran importancia a la hora
de llevar a cabo ciertos tipos de análisis, así como otros tales como la edición de los
propios datos geográficos. La topología no aporta beneficio a la hora de representar
una capa, pero sí a la hora de llevar a cabo análisis sobre ella [37].
En la figura 5.11 se puede observar la diferencia existente entre editar una
capa de polígonos con topología y una sin ella. En el primer caso, la información
contenida en la capa antes de su edición nos informa no solo de la forma de cada
polígono, sino también del hecho de que ciertos polígonos comparten bordes comu-
nes y de que el conjunto de ellos cubre el espacio de forma completa (constituyen
una teselación). Así, al modificar un punto en uno de los polígonos, todos aquellos
polígonos adyacentes que comparten dicho punto modifican también su perímetro.
Las capacidades de edición implementadas en el Sistema de Información Geográ-
Modelos para la información geográfica 97
a) b)
a) b)
Figura 5.12: Capa de vías de comunicación sin topología (a) o con ella (b). Los puntos
en este segundo caso indican conexiones entre vias, y son una representación visible de
la topología existente. Las flechas indican la dirección de circulación y, al igual que sucede
con las conexiones, solo están presentes si existe topología
que la componen. Esto aporta toda la información necesaria sobre la entidad, pero
deja de lado la topología. Algunas propiedades topológicas pueden calcularse, tales
como saber si un punto esta contenido dentro de un polígono o si dos rectas se cruzan,
pero para otras no se dispone de información suficiente. Así, aunque podamos saber
si dos líneas se cruzan, no podemos saber si este cruce implica una conexión real entre
ellas de forma que pueda pasarse de la una a la otra o no, como vimos en la figura 5.12.
Esta forma de recoger las entidades vectoriales es similar a la que encontramos
en un mapa clásico, en el cual podemos conocer la forma de un área dada o el
recorrido que sigue una determinada carretera, pero no las relaciones existentes.
Únicamente disponemos del trazo con el que se han dibujado estos elementos. Por
esta razón, y como se ha dicho, un modelo vectorial sin topología es perfectamente
válido para la representación de cualquier tipo de información en formato vectorial,
pero no tanto para su análisis.
El almacenamiento de entidades basado en una mera lista de coordenadas de
cada entidad se conoce popularmente como spaghetti, pues si pensamos en una
capa de lineas sin topología que se entrecruzan en el espacio, esta se asemejan en
cierta forma a un caótico plato de spaguettis sin orden ni relación entre ellos.
La mayor ventaja de este modelo es su simplicidad, razón por la cual es la
habitual en muchos de los SIG más populares. Para muchos usuarios, es suficien-
te trabajar con datos vectoriales sin topología, pues las labores frecuentes que
desarrollan, tales como consultas (capítulo 11) o creación de mapas derivados, no
requiere conocer las relaciones topológicas existentes.
Gran parte de las operaciones que se desarrollan en un SIG no requieren
topología, y por ello no es necesario asumir siempre el coste que implica trabajar
con ella (mayor complejidad en general). Es por ello que incluso aquellos SIG que
sí poseen la capacidad de trabajar con topología, también disponen de formas de
trabajar sin ella, empleando datos que carecen de topología. Esto es así también
debido a que mucha información disponible no incluye topología, ya que o bien
esta no se incorporó en el momento de la digitalización, o bien el formato de fichero
en el que se almacenó no soportaba la inclusión de topología.
En otros casos, la propia naturaleza de la variable que recogemos puede requerir
ser almacenada sin topología, o bien puede ser que no existan relaciones topoló-
gicas que representar. Una capa de polígonos en las cuales se recojan las áreas
de influencia de unos determinado fenómenos puntuales pueden perfectamente
solaparse. No existe en este caso esa relación que hace que el conjunto de polígonos
que las representan cubra la totalidad del espacio y cada punto pertenezca a una
sola entidad. En este caso, un punto puede estar afectado por uno, varios o ninguno
de dichos fenómenos puntuales, y por tanto pertenecer a una, varias o ninguna
de las entidades poligonales que representan sus respectivas áreas de afección. Al
modificar una de ellas (por ejemplo, si el fenómeno puntual que la origina varía
su intensidad), las demás geometrías no deberían verse afectadas. No existe como
tal una relación que deba recogerse en forma de topología.
100 Sistemas de Información Geográfica
Con topología
2
b Dual,Independent,Map,Encoding(DIME)
3 Segmento,,,,Vertice,1,,,Vertice,2,,,,Polig.,dcha.,,Polig.,izda.
a
A ,,,,,,a,,,,,,,,,,,,,,,,,,1,,,,,,,,,,,,,,,,2,,,,,,,,,,,,,,,,,A,,,,,,,,,,,,,Ninguno,,,,,,
,,,,,,b,,,,,,,,,,,,,,,,,,2,,,,,,,,,,,,,,,,3,,,,,,,,,,,,,,,,,A,,,,,,,,,,,,,Ninguno
,,,,,,c,,,,,,,,,,,,,,,,,,3,,,,,,,,,,,,,,,,4,,,,,,,,,,,,,,,,,B,,,,,,,,,,,,,Ninguno
e ,,,,,,d,,,,,,,,,,,,,,,,,,4,,,,,,,,,,,,,,,,5,,,,,,,,,,,,,,,,,B,,,,,,,,,,,,,Ninguno
c
,,,,,,e,,,,,,,,,,,,,,,,,,1,,,,,,,,,,,,,,,,3,,,,,,,,,,,,,,,,,B,,,,,,,,,,,,,,,,,,A
B Polígono,,,,Segmentos
,,,,,,A,,,,,,,,,,,,,a,,b,,e
1 ,,,,,,B,,,,,,,,,,,,,c,,d,,e
d 4
ii
Arco-nodo
2
iii
a A ,,,Arco,,,,Nodo,1,,,,Nodo,2,,,,Vertices,,,,Polig.,dcha.,,,Polig.,izda.
,,,,,,a,,,,,,,,,,,,1,,,,,,,,,,,,3,,,,,,,,,,,,,,ii,,,,,,,,,,,,,,,,,A,,,,,,,,,,,,,,,,Ninguno
,,,,,,b,,,,,,,,,,,,1,,,,,,,,,,,,3,,,,,,,,,,,,,,-,,,,,,,,,,,,,,,,,B,,,,,,,,,,,,,,,,,,,,A,,,,,,
c ,,,,,,c,,,,,,,,,,,,1,,,,,,,,,,,,3,,,,,,,,,,,,,,iv,,,,,,,,,,,,Ninguno,,,,,,,,,,,,,B,,,,,,,
b
Polígono,,,,Arcos Nodo,,,,Arcos
i B ,,,,,,A,,,,,,,,,,,a,,b ,,,1,,,,,,,a,,b,,c
,,,,,,B,,,,,,,,,,,b,,c, ,,,2,,,,,,,a,,b,,c,
1
iv
4
Figura 5.13: Dos modelos para representar la topología de líneas y polígonos. a) DIME,
b) arco–nodo.
vértices son en realidad los puntos que solo pertenecen a una entidad, mientras
que los nodos pertenecen a varias de ellas.
Una capa de líneas se describe como un conjunto de arcos y nodos, de forma
que, atendiendo a los nodos como enlaces entre las líneas, se pueden conocer las
relaciones entre ellas. En el caso de polígonos, estos se forman con conjuntos de
arcos que delimitan las fronteras. Los polígonos que son adyacentes comparten
uno o más arcos, quedando establecida así mediante ellos la relación topológica.
En el caso del modelo DIME, sin embargo, vemos que cada linea recta entre dos
puntos se trata como una unidad, es decir, que todos los vértices son considerados co-
mo nodos y los arcos se componen siempre de una sola línea. El arco es en realidad un
segmento. En ambos casos, no obstante, cada arco tiene un inicio y un final —y por
tanto una dirección—, y puede definirse un lado derecho y otro izquierdo según se
avanza en dicha dirección. Como puede verse, también en ambos modelos se recoge
explícitamente qué polígono, en caso de haber alguno, se sitúa a cada lado del arco.
La información que se recoge según estos modelos, vemos que se divide en
bloques según los distintos niveles, desde los puntos, que han de recogerse en un
diccionario de puntos (aunque este no queda reflejado en las tablas de la figura),
pasando por los segmentos o arcos, y hasta los polígonos, definidos estos en base
a los anteriores.
102 Sistemas de Información Geográfica
Con independencia del modelo, y sin entrar en más detalles, todos estos elemen-
tos en conjunto sirven para recoger las relaciones existentes entre los elementos, de
tal modo que pueden llevarse a cabo también aquellas operaciones que no dependen
exclusivamente de la posición, sino asimismo de otra serie de propiedades.
Dentro de los modelos existentes, encontramos asimismo variaciones en función
de la tarea principal que se desee realizar. La eficiencia de cierto tipo de cálculos
puede aumentarse notablemente si se elige un modelo de representación óptimo,
como podemos ver si analizamos una de las operaciones más comunes: el cálculo
de rutas óptimas entre dos puntos (los detalles sobre este cálculo se exponen en
el capítulo 19, aquí por el momento únicamente mostraremos sus implicaciones
en los modelos de representación).
Para calcular la ruta óptima entre dos puntos dados de una red necesitamos
conocer qué nodos de la red están conectados entre sí y por qué vías están conecta-
dos, ya que las características de estas condicionan el movimiento. La información
necesaria para este cálculo puede almacenarse perfectamente según un modelo
arco–nodo como el que ya conocemos, pero considerando las particularidades del
análisis que queremos realizar, existen otros modelos más apropiados.
Por ejemplo, se puede tener en cuenta que los vértices de un nodo no tienen
relevancia alguna. Si el tránsito se realiza entre dos nodos, a efectos del cálculo
es indiferente que el tramo que los une tenga unos u otros vértices. Lo único que
importa es saber que existe un tramo que los conecta y las características de ese
tramo como, por ejemplo, el tiempo que cuesta recorrerlo o si conecta el nodo A con
el B y el B con el A o solo lo hace en una de las direcciones anteriores. Por ello, en el
caso del análisis de redes, la clave reside en almacenar de forma eficiente los nodos
y las relaciones, pues estos son los elementos esenciales para efectuar los cálculos
Algunos modelos empleados comúnmente para el almacenamiento de redes
son los siguientes [35]:
Matriz de incidencias arco–nodo
Matriz de adyacencias nodo–nodo
Listas de adyacencia
Estrella directa e inversa5
La matriz de adyacencias nodo–nodo es sumamente sencilla, ya que simple-
mente, para un número n de nodos, contiene una matriz de tamaño n×n, en la
que cada elemento (i,j) indica la existencia o no de conexión entre los nodos i y j y
la naturaleza de dicha conexión. Si el elemento es igual a cero indica que no existe
posibilidad de desplazarse directamente del nodo i al nodo j. En caso contrario, el
valor es igual a la propiedad que se desee recoger del tramo, por ejemplo el tiempo
que se tarda en recorrer o la velocidad máxima a la que puede hacerse ese recorrido.
La gran ventaja de este método es su gran sencillez, que deriva en sencillas
implementaciones de los algoritmos correspondientes.
5
Forward and reverse star
Modelos para la información geográfica 103
TIN
Hemos visto cómo una capa vectorial con topología nos sirve para modelizar
ventajosamente elementos como una red de vías o una teselación del espacio en, por
ejemplo, diferentes clases de usos de suelo. Además de esto, la incorporación de topo-
logía sirve para mejorar la representación de campos mediante modelos vectoriales,
permitiendo la aparición de modelos como los TIN, ya presentados con anterioridad.
Un TIN [40] es una red formada por un conjunto de triángulos interconectados,
cada uno de los cuales representa a una zona de características homogéneas en lo
que a la variable estudiada respecta. Debido a esto, y como puede verse en la figura
5.1, el número de triángulos varía según las características propias de la zona.
En aquellos lugares en los que se dé una gran variación (en caso de recoger el
relieve será en las áreas más abruptas), se utiliza un gran número de triángulos para
recoger toda esa variabilidad. Cuando, por el contrario, los valores no varían de
forma tan notable (zonas de relieve más llano), pueden emplearse menos triángulos.
Puesto que cada triángulo está formado, como todo polígono, por puntos, podemos
decir que se necesitan menos puntos para almacenar un terreno si este es llano que
si este es muy abrupto.
Cada triángulo tienen unas propiedades constantes, como corresponde al mo-
delo vectorial. En particular, se considera habitualmente que todos los puntos
dentro de un mismo triángulo constituyen un plano, con una pendiente y una
orientación fija por tanto.
La topología del modelo permite llevar a cabo análisis diversos sobre un TIN, ya
que para cada triángulo se tiene conocimiento de cuáles son los adyacentes a este, y
es en el análisis de dichos adyacentes en el que se basan gran parte de los algoritmos.
Este análisis resulta sencillo de implementar en una capa ráster, pues la propia
estructura de la misma informa directamente de las celdas circundantes, pero en el
caso vectorial requiere la presencia de topología para plantear un esquema similar
de operación.
El análisis de los TIN no se desarrolla en detalle en este libro, pero resulta
interesante recalcar en este punto que resulta posible de igual modo, y ello es debido
a la presencia de topología en la propia estructura del modelo de representación.
Las particularidades del TIN hacen que existan sub–modelos principales para
104 Sistemas de Información Geográfica
el modelo ráster restringe las formas a ángulos rectos, ya que la unidad base
es un cuadrado.
Figura 5.15: Ambigüedad en la asignación de valores a una celda en una capa ráster,
debido al tamaño de esta, que condiciona la precisión con la que puede recogerse la
realidad existente sobre el terreno.
algoritmos sobre una base vectorial son costosos debido a que las operaciones
matemáticas que implican son más complejas y requieren mayores número
de cálculos (aunque los volúmenes manejados puedan también ser notables).
a) b)
Figura 5.16: Ordenes de escaneo. a) fila a fila sin retorno, b) fila a fila con retorno.
La forma más sencilla de recorrer la imagen es hacerlo por filas, empezando por
la fila superior y desplazándose de derecha a izquierda (Figura 5.16a). No obstante,
el salto que se produce al final de cada fila suele implicar una discontinuidad en
los valores. Invirtiendo la dirección del recorrido en cada fila, se tiene el orden
mostrado en la figura 5.16b, el cual suele tener como resultado mayores niveles de
compresión de datos, ya que la cadena resultante de recorrer la imagen contiene
trozos generalmente de mayor tamaño.
Un esquema de barrido más complejo es el basado en el denominado orden de
Morton [43]. El orden de Morton (también conocido como orden Z ), se basa en una
curva de carácter recursivo, que recorre las celdas de la matriz siguiendo tramos
en forma de Z, de ahí el nombre. En la primera iteración se divide el conjunto de
celdas en cuatro bloques, los cuales se recorren siguiendo el antedicho recorrido
en Z. Si los bloques contienen a su vez más de una celda, se siguen subdividiendo
a su vez de forma idéntica, y así hasta que no pueda continuarse este proceso.
La matriz que contiene los valores de orden de Morton (el orden en que se
visita cada celda según el esquema anterior), se conoce como Matriz de Morton,
la cual ya citamos por su importancia histórica en el capítulo 2.
Un ejemplo de este orden de barrido aplicado a una pequeña matriz puede
verse en la figura 5.17.
Una estructura más avanzada son los denominados Quadtrees o árboles cuater-
Modelos para la información geográfica 111
Figura 5.17: Un ejemplo sencillo de barrido de una capa ráster según órdenes de Morton.
Los valores en las celdas no indican los valores de la variable, sino el orden en que se visita
dicha celda según este esquema de barrido
Figura 5.18: Ejemplo de un árbol cuaternario. En las zonas con más variabilidad (mayor
densidad de puntos), los cuadrantes se subdividen hasta una profundidad mayor. La estruc-
tura es tal que cada cuadrante tiene dentro a lo sumo un punto. (Tomado de Wikipedia)
según los casos, bien sea por elección directa del usuario o tomándose de forma
automática el que el propio sistema considere más adecuado en cada ocasión.
Aunque el mayor problema de las capas ráster es su gran volumen, también
existen diversas alternativas enfocadas a mejorar la velocidad de acceso a datos
y el rendimiento de las operaciones sobre estas capas. Estas alternativas afectan
a las imágenes con múltiples bandas, ya que estas, como dijimos, se recogen en un
único fichero, en el cual se incorpora toda la información de las distintas bandas.
La forma en la que las bandas se tratan dentro del fichero y el modo en que
se ordenan los píxeles de las distintas bandas, ambas definen el esquema de alma-
cenamiento, presentando cada uno de ellos una serie de ventajas de rendimiento
en función de la actividad principal que se vaya a desarrollar con la imagen. Tres
son los esquemas principales:
Band Sequential (BSQ). Los valores se almacenan por bandas. Es decir, prime-
ro todos los píxeles de la banda 1, después los de la banda 2, y así sucesivamen-
te. Este tipo de esquema da prioridad a la componente espacial, ya que permite
acceder rápidamente a todo el espacio cubierto por una banda, puesto que los
píxeles de dicha banda se encuentran almacenados en posiciones contiguas.
Band Interleaved by Pixel (BIP). Los valores se almacenan ordenados por
posiciones de píxel. Es decir, primero se almacenan todos los valores co-
rrespondientes al píxel (0, 0)6 (en todas las bandas existentes), después los
correspondientes al (0,1)7 , y así sucesivamente. En caso de que lo que interese
sea, para un píxel dado, conocer toda la información disponible (su valor en
6
Es una terminología habitual empezar a contar en cero en lugar de en uno las coordenadas
fila/columna de una imagen
7
Es habitual recorrer la imagen por filas, de forma que la coordenada (0,1) representa la
primera fila y la segunda columna
Modelos para la información geográfica 113
todas las bandas), el esquema BIP es más ventajoso, ya que permite accesos
rápidos a este tipo de información, sin necesidad de «saltar» de un valor a
otro como sucedería en el caso del esquema BSQ. A nivel de acceso, se prima
la información espectral sobre la espacial.
Band Interleaved by Lines (BIL). Es un esquema intermedio en el que se
recogen los valores por filas. Esto es, primero la fila 1 de la banda 1, luego
la de la banda 2, y así sucesivamente. Posteriormente se recoge la fila 2 para
todas las bandas, y de este modo hasta cubrir toda la imagen. Se trata de un
esquema intermedio entre los anteriores, permitiendo un acceso rápido tanto
a la información espacial como a la información espectral de las bandas.
La figura 5.19 se muestra un ejemplo muy sencillo de los anteriores esque-
mas. Para una imagen de 2×2 celdas y dos bandas, se recoge el orden en que se
almacenaría capa valor según cada uno de dichos esquemas.
BSQ BIP BIL
1 2 1 3 1 2
Banda 1
3 4 5 7 5 6
5 6 2 4 3 4
Banda 2
7 8 6 8 7 8
volumen de los datos como la obtención de una mayor eficacia en las operaciones
y una simplificación de estas. Lógicamente, si los datos tienen un volumen menor,
el tiempo que cualquier operación sobre ellos implica también ser menor. Aún
así, la diferencia principal para este tipo de datos reside en la disminución de la
complejidad en que estos se almacenan, disminuyendo las operaciones a realizar,
así como la complejidad de la implementación de los correspondiente algoritmos
(ambas habitualmente elevadas).
Para mejorar el rendimiento de las operaciones que trabajan con datos vec-
toriales, un factor clave es mejorar el acceso a los datos, de forma que, cuando
se necesite acceder a unos datos concretos, estos puedan «encontrarse» de forma
fácil. Por este motivo, un elemento importante en la representación de los datos
vectoriales son los denominados índices espaciales.
El concepto de índice cuando se habla de datos es similar al concepto de índice
referido a un libro como este. Aquí tienes un ejemplo muy sencillo para que lo
comprendas mejor: si vas al principio de este libro, puedes ver su índice y saber dónde
empieza este capítulo, de forma que si estas interesado en modelos relacionados con
la información geográfica, sabes rápidamente que es en este bloque de páginas donde
debes buscar lo que te interesa. Si no existiera ese índice, tendrías que ir revisando
todas las páginas hasta que llegaras al principio de capítulo y te dieras cuenta de que
aquí es donde está lo que buscas. De igual modo, si vas al final de este libro y buscas
el término índices espaciales, verás que aparece esta página junto con otras en las
que aparece dicho término. Si no tuvieras ese índice, tendrías que revisar palabra
por palabra para saber en qué partes de este libro se habla de índices espaciales.
Estos sencillos ejemplos muestran situaciones similares a las que aparecen en el
uso habitual de un SIG, en las cuales trabajamos sobre una parte del total de los da-
tos. Igual que buscamos un capítulo o un único término, podemos querer, por ejem-
plo, todas las entidades de una capa que están en una zona particular del espacio.
Disponer de un índice acelera el proceso de localizar esas entidades que nos interesan.
Por trabajar con información espacial, tales índices se denominan índices espaciales.
Muchos de los procesos que veremos en la parte dedicada al análisis necesitan
este tipo de índices para poder ejecutarse con un rendimiento adecuado. A medida
que veamos estos procesos, se comprenderá mejor por qué la existencia de índices
espaciales resulta necesaria e incluso imprescindible cuando disponemos de datos
de gran volumen. En el capítulo 11 veremos información más detallada sobre la
utilidad de los índices espaciales, ya que estos son vitales para la realización de
consultas espaciales, que son tratadas en dicho capítulo.
Como ya hemos dicho, el objetivo de este tipo de estructuras para representar
los datos espaciales no es disminuir el tamaño, sino mejorar el rendimiento de las
operaciones sobre ellos. De hecho, y al contrario que en el caso de los modelos de
representación ráster, en este caso no disminuye el espacio que ocupan los datos,
sino todo lo contrario, ya que este aumenta. Un índice espacial es información
adicional que incrementa la utilidad de dichos datos. Exactamente del mismo modo
Modelos para la información geográfica 115
que el índice de este libro, que no sustituye al texto que ahora mismo estas leyendo,
sino que se añade a este y te ayuda a manejarte a través de él y sacarle más partido.
La creación del índice espacial supone la creación de una estructura espacial
en la cual se contienen objetos más simples que las propias entidades geométricas,
estructuradas a su vez de forma también más sencilla que recogiendo sus coorde-
nadas, y con un orden característico. Como hemos dicho, este índice espacial no
sustituye al dato espacial, sino que lo complementa, optimizando la búsqueda de
información dentro de este.
Existen dos enfoques principales para los índices espaciales: continuos y dis-
cretos [45]. Los continuos utilizan las coordenadas mismas de las entidades, sim-
plificando la forma de estas, mientras que en los discretos la simplificación se
aplica al espacio, discretizando este. En ambos, las entidades que se emplean son
rectangulares en la mayoría de los casos. La figura 5.20 muestra la aproximación
de una geometría poligonal que se obtiene en ambos tipos de modelos.
Figura 5.20: Aproximación continua (a) y discreta (b) para un índice espacial.
en este mismo capítulo. Por ejemplo, para el caso de una aproximación continua
sobre una capa de puntos, los arboles cuaternarios (quadtrees) son una estructura
de datos adecuada. Esta aplicación ya la vimos, de hecho, en la figura 5.18.
Como seguramente ya hayas advertido, los enfoques continuo y discreto se
corresponden a primera vista con las ideas correspondientes a los modelos de datos
ráster y vectorial (aunque los índices espaciales de los que estamos hablando son pa-
ra capas vectoriales). Es por ello que las estructuras que hemos visto para el almace-
namiento de datos ráster pueden utilizarse también para recoger las distintas celdas
de un índice espacial discreto. Así, la división en celdas hace necesario un orden de
escaneo. El orden de Morton que ya conocemos se aplica en este caso, entre otros.
Una vez más, las estructuras de datos de todos estos índices espaciales suponen
un elemento demasiado especifico para los contenidos de este libro, por lo que no
se profundizará en su teoría. No obstante, estos son numerosos, ya que se trata
de un área muy desarrollada. Referencias como [46] aportan descripciones más
extensas para el lector interesado.
En caso de querer profundizar en los aspectos más técnicos de la representación
del dato geográfico en general, tanto en formato ráster como vectorial, [47] ofrece
información muy extensa al respecto.
5.5. Resumen
El proceso de almacenar la realidad y reducirla a un conjunto de valores numé-
ricos manejables por un ordenador implica tres etapas fundamentales: creación de
un modelo conceptual, adopción de un modelo de representación y codificación del
anterior según un modelo de almacenamiento. Estos procesos dan lugar a la crea-
ción de las denominada capas geográficas, unidades fundamentales de información
dentro de un SIG.
Dos son los modelos conceptuales más importantes: campos y entidades discre-
tas. Estos a su vez se identifican en líneas generales con los dos principales modelos
de representación: ráster y vectorial.
En el modelo ráster el espacio se divide sistemáticamente en unidades mínimas
denominadas celdas, habitualmente de forma cuadrada. En el modelo vectorial
se almacenan las distintas entidades geográficas a través de las coordenadas de
los puntos que las componen. El concepto de topología es importante en el modelo
vectorial, y en función de la forma en que se recojan las coordenadas de cada
entidad, se almacenará o no la información topológica. El modelo arco–nodo es
el más habitual para representar la topología.
La ultima etapa es la que conlleva el almacenamiento de los modelos de repre-
sentación, convirtiendo los elementos base de estos en valores numéricos manejables
por el ordenador. Cada modelo de representación tiene sus particulares modelos de
almacenamiento, los cuales tratan de maximizar el rendimiento de las operaciones
realizadas sobre los datos espaciales, al tiempo que reducen el espacio que dichos
datos ocupan.
118 Sistemas de Información Geográfica
Capítulo 6
Una vez conocemos los modelos de representación y sabemos cómo almacenar la infor-
mación geográfica, es momento de estudiar los distintos métodos que nos permiten llevar
a la práctica el proceso de creación del dato geográfico, y los orígenes desde los que estos se
generan. En este capítulo analizaremos las principales fuentes existentes, sus fundamentos
y características, y cómo son los datos que se obtienen a partir de ellas.
Para seguir el contenido de este capítulo, es importante tener una buena comprensión
de todo lo descrito en el capítulo 5, en especial lo relativo a modelos de representación.
6.1. Introducción
El origen de los datos con los que trabajamos en un SIG puede ser sumamente
variado y presentarse asimismo en formas diversas. La metodología seguida en la
recolección de datos condiciona directamente la forma en que estos datos llegan a
nosotros, y por tanto el uso que les podemos dar dentro de un SIG o las operaciones
que debemos realizar con ellos de cara a poder adaptarlos para la realización de
un trabajo concreto.
No hace tanto tiempo, toda la información que se manejaba dentro de un SIG
tenía su origen en un mapa en papel, el cual debía prepararse para adaptarse a la
naturaleza propia del SIG. El desarrollo de los SIG ya había comenzado a dar sus
frutos y se obtenían los primeros programas, pero eran necesarios datos para utili-
zarlos. Sin embargo, los datos geográficos de los que se disponía no se encontraban
en formato digital, por lo que no eran adecuados para su uso dentro de un SIG.
Una tarea básica en esos tiempos era la digitalización de cartografía, es decir,
convertir los datos geográficos en formato impreso en datos en formato digital
que un SIG pudiera manejar. La disponibilidad de datos digitales era baja, pero,
como resulta lógico pensar, sí que existía una gran cantidad de datos geográficos
en otros formatos tales como mapas, cartas de navegación, fotografías aéreas, etc.
La tecnología ha ido avanzando y ya se producen datos directamente en formato
digital, considerando específicamente la existencia de los SIG como herramientas
básicas de manejo de datos geográficos. No obstante, los datos en formato impreso,
así como las técnicas que se emplearon en su creación, siguen siendo válidas, y
sirven igualmente para crear datos geográficos que podemos emplear en un SIG.
Hoy en día, la situación es bien distinta a la de aquellos primeros tiempos,
y puede afirmarse que los orígenes a partir de los cuales se generan los datos
120 Sistemas de Información Geográfica
geográficos son muy diversos. Esto es así porque aunan técnicas recientes y más
adaptadas al entorno de los SIG con métodos clásicos que, no obstante, no han
perdido su vigencia y valor. En la actualidad, la recolección de datos geográficos es
un ámbito complejo con muchas alternativas, las cuales deben integrarse dentro de
un SIG para permitir que este despliegue todo su potencial sobre dichos datos. Todo
este conjunto de técnicas de adquisición de datos conforman un amplio abanico de
posibilidades de las cuales el usuario de SIG debe nutrirse para trabajar siempre en
las mejores condiciones posibles, maximizando la precisión y alcance de su trabajo.
Integrar dentro del trabajo con un SIG todas las fuentes de datos disponibles es
una tarea que requiere un conocimiento detallado de estas, con objeto de poder esta-
blecer la mejor manera de combinarlas, y elegir en cada caso la mejor opción de las
disponibles. A lo largo de este capítulo veremos las principales técnicas existentes pa-
ra la creación de datos geograficos en un formato apto para su uso en un SIG, centrán-
donos en los pormenores de proceso y las particularidades de los datos generados en
cada caso. Para ello, veremos todo el conjunto de fuentes de las cuales pueden prove-
nir los datos con los que trabajamos en un SIG, desde las más modernas hasta las más
antiguas, así como las metodologías que permiten convertir las formas no digitales
en datos aptos para su uso en dicho SIG. El objetivo es que, al final del capítulo, se co-
nozcan con detalle todas las formas en las que los datos geográficos pueden presentar-
se, se entiendan estas completamente con independencia de su origen, y se sepan uti-
lizar y combinar todas las fuentes de datos, extrayendo lo mejor de cada una de ellas.
los datos obtenidos con GPS, todos ellos recogidos ya en origen de forma adecuada
para su empleo directo en un SIG.
Por su parte, los datos secundarios derivan de algún otro tipo de dato previo, el
cual no es adecuado para su empleo en un SIG. Entre estos incluimos las versiones
digitales de los mapas clásicos (veremos en breve cómo se lleva a cabo esa conversión
de un documento analógico a uno digital), así como los datos procedentes de un
muestreo o levantamiento tradicional. Otros provenientes de cartografía impresa,
tales como capas de elevaciones, también se incluyen en en este grupo.
Al desarrollar las fuentes de datos en este capítulo, se tratarán tanto fuentes
primarias como secundarias, y en el caso de estas últimas se tratarán a su vez las
formas en las que a partir de estas pueden derivarse datos digitales que puedan
ya ser incorporados a un SIG.
6.4. Teledetección
La primera fuente de datos que trataremos en este capítulo es la teledetección.
Entendemos por teledetección el estudio y medida de las características de una
serie de objetos (en nuestro caso elementos de la superficie terrestre) sin que exista
contacto físico [49, 50, 51]. Para ello, se miden las perturbaciones que el objeto
provoca en su entorno, principalmente las de tipo electromagnético.
Tradicionalmente, la teledetección se ha estudiado como una materia comple-
mentaria pero en cierto modo separada de los Sistemas de Información Geográfica.
Ello es debido principalmente a que se trata de una materia muy extensa cuyo
desarrollo se ha producido en cierta parte de forma ajena al de los SIG. No obstante,
a medida que ambos campos se han ido desarrollando, la convergencia entre SIG
y teledetección se ha ido haciendo cada vez más evidente. No solo las aplicaciones
SIG incorporan elementos para el manejo, tratamiento y análisis de datos proce-
dentes de la teledetección, sino que las formulaciones de ambos ámbitos contienen
elementos similares.
La teledetección es hoy en día un elemento clave para la formación en SIG, y
como tal debe incluirse en un libro como este. Los bloques tradicionales en los que
se divide el temario fundamental de la teledetección no incorporan únicamente
el registro de la información y la creación de los datos, sino también su proceso
posterior, interpretación y tratamiento. Este último no se trata, sin embargo,
en este capítulo, sino en la parte dedicada al análisis, integrado junto con otras
formulaciones similares para proceso de imágenes.
La teledetección es, como decimos, una fuente de datos primordial en los SIG,
y el verdadero aprovechamiento de los productos actuales de la teledetección
solo se da con el concurso de los SIG y sus capacidades de análisis y manejo de
datos. No obstante, y atendiendo a la definición dada, los procesos de teledetección
aplicados al ámbito cartógráfico y el análisis espacial se remontan a tiempo atrás,
124 Sistemas de Información Geográfica
concretamente a la mitad del siglo XIX. Fue entonces cuando se tomaron las
primeras fotografías aéreas uniendo el recién desarrollado campo de la fotografía
junto con la utilización de globos aerostáticos como medio para situar el aparato
fotográfico a una altura suficiente que permitiera obtener las imágenes.
Las fotografías aéreas fueron el primer producto de la teledetección, pero hoy
en día existen otros que, basados en esa misma idea de registro de información,
pueden ser empleados como fuentes de datos espaciales dentro de un SIG. Para
comprenderlos, estudiemos algo más en detalle los elementos del proceso de te-
ledetección, los cuales se representan de forma esquemática en la figura 6.1. Estos
elementos son los siguientes:
a la la interacción entre esta y la materia, mientras que para el estudio del sistema
receptor analizaremos los elementos de este en dos componentes por separado:
sensores y plataformas.
La interacción de la atmósfera interesa de cara a eliminar su efecto, ya que
lo que resulta de interés en general son los objetos en la superficie terrestre, no
la atmósfera como tal. Eliminar esta influencia de la atmósfera es parte de los
procesos posteriores que se realizan con la imagen y que incluyen también, como se
mencionó anteriormente, la interpretación y otros procedimientos diversos sobre
esta. Todos ellos no son tratados en este capítulo sino, tal y como se dijo, en un
capítulo independiente dentro de la parte de procesos.
La radiación electromagnética
La radiación electromagnética es una de las cuatro fuerzas fundamentales de
la naturaleza1 y deriva del campo electromagnético, el cual es ejercido por las par-
tículas cargadas eléctricamente. Para explicar esta existen dos modelos conocidos
como modelo ondulatorio y modelo de partículas. Según el primero, que será en el
que profundicemos algo más, la radiación electromagnética es producto de las al-
teraciones en los campos eléctrico y magnético, que generan dos ondas ortogonales
entre sí, correspondientes a cada uno de los campos anteriores (Figura 6.2).
mayor longitud de onda (y, por tanto una menor frecuencia) tiene asociada una
mayor energía de la radiación.
La radiación electromagnética puede cubrir de forma continua todo un amplio
rango de valores de longitudes de onda. Este rango se conoce como espectro electro-
magnético. Pese a la continuidad de sus valores, es habitual agruparlos en regiones,
discretizando la amplitud del espectro, ya que las radiaciones en longitudes de onda
similares presentan a su vez comportamientos similares en muchos sentidos. En la
figura 6.3 se muestra un esquema del espectro electromágnético y sus principales
regiones de interés.
temperatura3 .
Microondas (1 mm - 25 cm).
En el capítulo 16 estudiaremos para qué tipo de análisis resulta útil cada una de
las regiones del espectro, cuando veamos como analizar las imágenes procedentes
de la teledetección.
Como ya se dijo en el capítulo 5, las imágenes como capas ráster presentan
habitualmente la particularidad de tener varias bandas. En lugar de un único
valor para cada celda, existen n valores, uno por cada banda. Esto es así porque la
imagen recoge la intensidad de la radiación (recordemos que esto se denominaba
Nivel Digital) dentro de una amplitud dada del espectro, y a su vez subdivide
esta en distintas franjas. Los Niveles Digitales de cada banda corresponden a la
intensidad dentro de una de esas franjas del espectro en particular.
mucho más al respecto en el capítulo 16, así como en el 20, donde estudiaremos
una aplicación habitual de dichas firmas espectrales.
Además de la interacción con los objetos que se pretenden estudiar, la radiación
interactúa con la atmósfera. Esta interacción afecta al resultado y es una variable a
considerar en ciertas operaciones posteriores con las imágenes. Veremos más sobre
la interacción entre radiación y atmósfera en el apartado 16.2, cuando tratemos
esas operaciones.
Plataformas
Figura 6.4: Esquema de barrido de un satélite con órbita heliosíncrona. Tomado de [54]
Debido al movimiento que causa las distintas franjas, los satélites con este
tipo de órbitas pueden cubrir toda la superficie terrestre, algo que no es
posible con los de órbita geosíncrona. No obstante, una vez que se toma una
imagen de una zona, la plataforma no regresa a ella hasta que se concluye
todo el ciclo, habiendo transcurrido un periodo de tiempo que se conoce como
periodo o intervalo de revisita. Debido a ello, la actualización de las imágenes
no puede ser tan inmediata como en el caso de satélites geosíncronos.
Sensores
que le llegan. Los sensores pasivos aprovechan las fuentes de radiación existentes
en la naturaleza (fundamentalmente el Sol) y se limitan a recoger la radiación
de dichas fuentes reflejada por los elementos del medio, o la que estos elementos
emiten por sí mismos. El sensor no produce ningún tipo de radiación de por sí.
Por el contrario, los sensores activos sí emiten radiación, y recogen dicha radiación
tras ser reflejada por los elementos del medio.
La diferencia fundamental entre estos dos tipos de sensores es que los activos
pueden funcionar en cualquier instante y no dependen de la condiciones atmosféri-
cas o el momento del día. De la misma forma que no podemos tomar una fotografía
de noche sin luz, y no podemos ver el suelo desde un avión cuando hay nubes, no
podemos utilizar un sensor pasivo en esas condiciones para tomar una imagen. Sin
embargo, sí podemos hacer una fotografía de noche si disponemos de un flash, ya
que la propia cámara emite la luz que necesita. La filosofía de un sensor activo es
en cierta medida similar al caso de la cámara con flash.
Los sensores activos emiten su propia radiación, por lo que no es necesario que
existan fuentes externas (no es necesaria la luz solar). Asimismo, los elementos
atmosféricos tales como las nubes, que afectan a la radiación visible, no afectan a
otros tipos de radiación, permitiéndoles una operatividad total en la gran mayoría
de condiciones. Por ello, los sensores activos suelen trabajar en el rango de micro-
ondas (frente a los sensores pasivos, que lo hacen en las regiones del visible y el
infrarrojo principalmente), ya que estas son capaces de atravesar la atmósfera en
prácticamente todas las condiciones, presentando así ventajas frente a los sensores
pasivos en este aspecto.
Aunque el producto habitual de la teledetección son las imágenes, entendidas
estas como algo visual, algunos sensores no forman tales imágenes, y los valores que
recogen no son las intensidades de la radiación reflejada por el terreno en una longi-
tud de onda dada. Es decir, no se corresponderían con el concepto de Nivel Digital ya
presentado. Este tipo de resultados son habituales en los sensores de tipo activo, en
los que la radiación que el propio sensor emite es recogida tras reflejarse en el terreno,
pero la variable que se mide de ella no es su intensidad sino, por ejemplo, el tiempo
que tarda en regresar. Planteamientos como estos permiten la generación de capas
de datos que no son imágenes como tales, como es el caso de las capas de elevación
(Modelos Digitales de Elevaciones), ya que el tiempo de retorno está directamente re-
lacionado con la distancia recorrida por la radiación, y este con el relieve del terreno.
Estos sensores, no obstante, operan de un modo similar a lo que ya conocemos,
y se consideran igualmente dentro del ámbito de la teledetección, pues se adscriben
a la definición de esta dada al principio de este apartado. Veremos igualmente
ejemplos de algunos de ellos cuando veamos más adelante algunos sensores de
particular relevancia, ya que tienen una gran importancia en la actualidad para
la generación de cartografía variada, como por ejemplo la ya citada de elevaciones.
132 Sistemas de Información Geográfica
Figura 6.5: Modelo del World Trade Center realizado a partir de datos LiDAR tomados
el día 27 de septiembre de 2001 (Fuente: NOAA/U.S. Army JPSD)
5 7 2 1 8 6 5 7 2 1 8 6
a) b)
5 7 2 1 8 6 5 7 2 1 8 6
Figura 6.6: Esquema de funcionamiento de un sensor de barrido (a) y uno de empuje (b)
Resoluciones
6
Desde un punto de vista formal, no ha de ser necesariamente así, ya que la imagen puede
tomarse originalmente con unas características y después, mediante operaciones matemáticas
(veremos estas en el capítulo 14), modificar el tamaño de píxel. Aunque este tamaño sea menor
al original, los objetos de menor dimensión que podrán discernirse en esa imagen no serán iguales
a ese tamaño, sino mayores.
7
Instantaneous Field of View (IFOV)
8
Ground Instantaneous Field of Vision (GIFOV)
Fuentes principales de datos espaciales 135
Figura 6.7: Dos imagenes con distinta resolución radiométrica (de izquierda a derecha,
8 y 256 niveles, respectivamente).
17
Advanced Very High Resolution Radiometer
18
Shuttle Radar Topography Mission
140 Sistemas de Información Geográfica
tidad vectorial, trazando la forma de esta o, en caso de ser una entidad de tipo punto,
sencillamente indicando su localización. Cuando el número de entidades es elevado,
el proceso puede llevar tiempo y ser tedioso, pero en todo caso sigue resultando una
forma sencilla y accesible de crear una capa vectorial a partir de otra fuente de datos.
Para llevar a cabo ese trazado de la entidad, se necesita emplear algún equipo
que recoja la información introducida por el operador. Existen dos alternativas
principales: utilizar un equipo especializado diseñado específicamente para la
digitalización, o bien digitalizar utilizando las funciones de edición de un GIS,
realizando todo el proceso dentro de este y sin más herramientas que el propio
ordenador y un dispositivo señalador como el ratón.
Figura 6.8: Esquema de una tableta digitalizadora y los elementos del proceso de
digitalización.
Se trata de una superficie plana a modo de atril, sobre la cual se sitúa el docu-
mento cartográfico a digitalizar, y sobre este se van trazando las distintas entidades
con un cursor. Este cursor registra los movimientos del operario, convirtiendo las
posiciones del cursos en coordenadas reales, que son las que van a constituir la
entidad digitalizada. El trabajo del operario consiste en seguir con el cursor las
formas de las distintas entidades, como si las estuviera calcando, de modo que
indique al sistema las geometrías que se quieren definir.
El proceso de digitalización implica los siguientes pasos [15]:
Fuentes principales de datos espaciales 143
Registro. La etapa fundamental del proceso, que garantiza que las coorde-
nadas de las entidades digitalizadas sean correctas. El mapa se ha de adherir
a la tableta de modo firme, normalmente con cinta adhesiva u otro medio
similar, y señalar en él unos puntos de control de coordenadas conocidas. Será
en base a estos como se calcularan las restantes coordenadas de las entidades
que el operario defina mediante el cursor. Habitualmente se utilizan como
puntos de control las esquinas y algún punto central del mapa. Es importante
que en el proceso de registro el mapa no presente dobleces o deterioros que
puedan inducir errores en el cálculo de coordenadas posteriores.
Digitalización. De entidades puntuales, lineales y poligonales.
Asignación de atributos. A cada una de las entidades digitalizadas se le
añaden sus correspondientes propiedades. Este paso no se realiza ya con la
tableta digitalizadora. En el caso más general, estos atributos se introducen
manualmente con el teclado o se toman, por ejemplo, de una base de datos.
Un caso particular, no obstante, es el de la digitalización de curvas de nivel.
Una vez que estas han sido digitalizadas, no es necesario asignar valores
individualmente a cada una de las lineas, ya que entre ellas existe una relación
que puede aprovecharse para simplificar el establecimiento de una cota
correspondiente a cada una. Estableciendo la elevación de una y la dirección
en que la elevación aumenta, pueden sistemáticamente asignarse elevaciones
a las curvas que aparecen según se avanza en dicha dirección. Los SIG más
populares presentan habitualmente herramientas que facilitan este proceso.
Manual. El usuario debe ir marcando uno por uno todos los puntos que
desee incorporar a la entidad digitalizada. Por ejemplo, para el caso de
una línea, debe ir deteniendo el ratón regularmente en aquellos puntos que
considere de interés, y sobre ellos pulsando los botones del cursor para indicar
al sistema que ha de registrar dichos puntos.
Semiautomática. El operario simplemente desliza el cursor definiendo la
forma de los entidades, y el propio sistema se encarga de almacenar puntos
regularmente según un intervalo de tiempo definido. Esto permite un ahorro
de tiempo considerable y una correcta densidad de puntos recogidos para
cada entidad.
Las tabletas digitalizadoras son elementos caros, motivo por el cual se tiende a
favorecer en la actualidad la digitalización en pantalla, que presenta además otra
serie de ventajas adicionales, como seguidamente veremos.
144 Sistemas de Información Geográfica
En pantalla (heads–up)
La otra forma de digitalizar elementos es utilizando las capacidades de edición
de un SIG. Estas capacidades son heredadas de las aplicaciones de diseño asistido
por ordenador (CAD), y permiten «dibujar» en la pantalla del ordenador entidades
y formas tales como los puntos, líneas y rectas que constituyen los objetos en el
modelo de representación vectorial.
En este proceso se parte igualmente de un capa base, generalmente una ima-
gen, y basándose en ella se van definiendo los objetos, «dibujándolos» sobre la
pantalla, una vez más como si se calcara aquello que puede visualizarse en dicha
imagen. El hecho de que un SIG nos permita tener varias capas simultáneamente
y visualizarlas a voluntad, facilita el proceso de digitalización. También lo facilita
el poder tener varias imágenes sobre el fondo (cada una de ellas como una capa
individual), de modo que podemos cubrir un área más amplia que la de una simple
hoja de mapa o una única imagen.
En este proceso, no partimos en realidad de un documento cartográfico analógi-
co, pues ya ha sido necesario digitalizarlo de alguna forma para incorporarlo en un
SIG. El proceso es una digitalización de las entidades como tales, pero la informa-
ción ya ha de estar en formato digital, aunque no en el modelo de representación
vectorial, sino en el modelo ráster. Por ello, puede utilizarse como capa de partida
una imagen originalmente en formato digital o bien una imagen originalmente en
formato impreso. En este ultimo caso, la imagen ha debido digitalizarse previamente
mediante un proceso de escaneo, el cual se tratará en la siguiente sección.
En la figura 6.9 puede verse un ejemplo de la digitalización de una imagen en
pantalla.
Figura 6.9: Digitalización en pantalla. En rojo, polígono ya digitalizado. Las lineas rojas
indican un nuevo polígono, actualmente en edición
En la figura, sobre una imagen aérea en color se digitalizan las distintas parcelas
que pueden distinguirse en esta. Del mismo modo, pueden digitalizarse curvas
de nivel en un mapa escaneado, u otras entidades tales como ríos, lagos o vías de
comunicación sobre una fotografía aérea, entre muchas otras. La digitalización en
Fuentes principales de datos espaciales 145
pantalla puede incluso utilizarse teniendo como base no una imagen, sino capas de
cartografía vectorial o cualquier capa de datos que aporte algún tipo de información
que pueda delinearse con las mismas herramientas de edición.
La digitalización en pantalla se conoce también como digitalización «cabeza
arriba» (heads–up), ya que el operador centra su atención en la pantalla, con una
postura bien distinta a la que se tiene al trabajar con una tableta digitalizadora.
Frente a dicho trabajo con tableta digitalizadora, la digitalización en pantalla
tiene las siguientes ventajas:
Menor coste. No se requiere equipo especializado de alto coste, ya que
basta con un ordenador personal.
Posibilidad de dividir el trabajo. Cuando se trabaja con un mapa so-
bre una tableta digitalizadora, este mapa no puede ser utilizado por otro
operario. Sin embargo, el uso de una capa digital dentro de un SIG como
base para la digitalización, permite que varios operarios trabajen con ella
simultáneamente y se repartan el trabajo.
Posibilidad de corrección y edición precisa. Las mismas capacidades
que se usan para trazar las distintas entidades puede emplearse para corregir
o modificar estas una vez que estas ya han sido digitalizadas (Figura 6.10),
resultando esto en un proceso de digitalización más flexible.
Posibilidad de ampliación. Para cartografías de baja calidad, puede ser di-
fícil obtener precisión si se trabaja directamente sobre el mapa, así como si los
elementos a digitalizar son pequeños, requiriéndose del operador un esfuerzo
visual adicional. Las capacidades que tiene todo SIG para ampliar una imagen
(zoom) permiten superar esta dificultad y trabajar a distintas escalas según la
precisión del trabajo a realizar o las características de los objetos digitalizados.
Mayor precisión. La capacidad de resolución del ojo humano es mucho
menor que la resolución de las imágenes (véase más adelante el apartado
6.5.5). Esto, unido a lo mencionado en el punto anterior, permite aprovechar
mejor la información de la fuente original, y que los resultados obtenidos en
la digitalización de esta sean más fieles a ella.
Mayor comodidad para el operario. La postura del operario es más
adecuada cuando se digitaliza sobre la pantalla, permitiendo unas mejores
condiciones. Esto que se traduce en menor cansancio y ello indirectamente
comporta resultados más precisos.
Para conocer con más detalle las capacidades básicas de edición de un SIG,
así como las restantes capacidades que contribuyen a su vez a facilitar la labor de
edición, consúltese el capitulo 22.
Figura 6.10: Corrección de entidades con las funciones de edición de un SIG. El polígono
de la derecha se encuentra en edición, siendo modificado uno de sus vértices.
Este tipo de digitalización es la habitual en el caso de generar una capa ráster, aun-
que también pueden obtenerse capas vectoriales procesando de modo automático
cartografía impresa.
Este segundo caso, no obstante, requiere una cartografía en condiciones espe-
ciales, no siendo adecuada para todo tipo de mapas. En caso de no presentarse
esas condiciones, los resultados de la digitalización no son óptimos, y requieren
posteriormente un gran trabajo de corrección y supervisión.
Escaneo
El escaneo es el proceso de digitalización que convierte una imagen impresa
(analógica) en una imagen digital [48]. El resultado de este proceso es, por tanto, y
desde el punto de vista de un SIG, una capa ráster. Pueden escanearse tanto mapas
como fotografías aéreas, operando en ambos casos de un modo similar y con las mis-
mas consideraciones, pues el objeto del proceso es el mismo: la conversión del docu-
mento impreso en un documento digital que pueda utilizarse dentro de un SIG o cual-
quier otro software tal como, por ejemplo, un software de tratamiento de imágenes.
El dispositivo fundamental para realizar este proceso es el escáner. Este se
compone de una cabeza sobre la que se monta un sensor, y un soporte sobre el
que se desplaza o bien la cabeza o bien el documento a escanear, de tal modo
que durante el proceso de escaneo esta recorre todo el documento, recogiendo la
información de toda su extensión.
Este proceso de barrido se realiza en una única ocasión, aunque dispositivos
más antiguos pueden hacerlo en tres ocasiones a la hora de escanear documentos
en color. Aunque lo habitual es la creación de una imagen en color, también pueden
obtenerse imágenes en blanco y negro o en escala de grises.
Aunque existen escáneres específicamente diseñados para el trabajo con docu-
mentos cartográficos, estos son dispositivos muy especializados y de muy elevado
coste. Los escáneres más genéricos, pensados para el trabajo con todo tipo de
Fuentes principales de datos espaciales 147
imágenes y para todo tipo de usos, pueden no obstante emplearse de igual mo-
do para escanear tanto mapas como imágenes aéreas con resultados aceptables,
utilizándose con frecuencia.
Existen tres tipos principales de escáneres:
De sobremesa (flat–bed). Los habituales para el uso doméstico o el escaneo
de imágenes de pequeño formato, aunque también existen de mayor tamaño.
El documento a escanear se sitúa sobre una placa de cristal bajo la que se
desplaza la cabeza con el sensor. Puede verse uno de estos escáneres en la
figura 6.11.
De tambor. El mapa se sitúa sobre un tambor que rota, mientras que la
cabeza se mantiene fija. La figura 6.12 muestro uno de estos escáneres.
Alimentados. El sensor se mantiene fijo y el documento se desplaza me-
diante un mecanismo de arrastre, de forma similar a como avanza el papel
en una impresora doméstica. Salvo que dispongan de mecanismos específicos
para corregir esta circunstancia, suelen presentar importantes distorsiones
geométricas causadas por un desplazamiento impreciso del papel.
300filas
300dpi = = 118,11filas/cm de mapa (6.5.1)
2,54cm de mapa
En un centímetro cuadrado se tienen 118,112 ≈ 13950 puntos.
Si trabajamos, por ejemplo, con un mapa a una escala 1:50000, tenemos que
la distancia real que representa el alto de cada fila es
50000cm
= 4,24metros/fila (6.5.2)
118,11filas
Es decir, cada píxel del mapa representa sobre el terreno un cuadrado de lado
4,24 metros.
Con cálculos similares podemos calcular para cada posible resolución el espacio
real que representa, y elegir esta en función del detalle que necesitemos. Como
regla general, debe tratar de trabajarse con una resolución que garantice que los
objetos que resultan de interés de la imagen (por ejemplo, aquellos que van a
digitalizarse después manualmente mediante una digitalización en pantalla con
esa imagen) sean distinguibles con claridad.
En el caso de imágenes aéreas, la resolución de estas medida en pares de lineas
por milímetro puede ser superior y permitir escanear a mayor resolución, aunque
ello no es estrictamente necesario, y debe una vez más buscarse el equilibrio entre
las ventajas y los inconvenientes de trabajar con una resolución más elevada.
En [66] puede encontrarse información más detallada sobre la elección de una
resolución óptima en el escaneo de imágenes aéreas.
Para el caso de mapas, no deben olvidarse los fundamentos cartográficos en
base a los cuales se ha creado dicho mapa, que fueron detallados en el capítulo 3.
Trabajando con una resolución más elevada no hace necesariamente que estemos
incorporando más información, ya que esta puede no existir en el mapa original.
Tendríamos un volumen de datos más elevado que el necesario para recoger toda
la información del mapa.
Una diferencia fundamental entre escanear una hoja de un mapa y una imagen
aérea es la diferencia de tamaño. Los mapas suelen tener tamaños mucho mayores
que los de un escáner común, lo cual obliga a utilizar equipos de gran formato o,
en la mayoría de los casos, contratar servicios de escaneo especializados, ya que
estos equipos tiene un coste muy elevado.
Una solución distinta en el caso de mapas de gran tamaño es el escaneo de la hoja
por partes y la posterior unión de las distintas partes. En este caso, es necesario ase-
gurarse de que las partes son coherentes entre sí en lo que respecta a las condiciones
bajo las que se realiza el escaneo, así como garantizar que las distintas partes se sola-
pan para que no existan zonas sin datos en la imagen resultante. Además de esto, el
solape facilita la localización de puntos comunes presentes entre partes contiguas, lo
que ayuda en la composición de todas las partes para dar lugar al resultado global.
150 Sistemas de Información Geográfica
Vectorización automática
Para ello, dispone de sensores luminosos y de láser que buscan las líneas en
la imagen y las recorren, almacenando las coordenadas por las que han pasado en
el recorrido. De este modo, se genera un resultado vectorial en lugar de uno ráster.
El barrido de la imagen no es sistemático como el de un escáner, sino que «sigue»
las líneas que están presentes en la imagen, y que son las que van a digitalizarse.
Junto a las formas de digitalización que acabamos de ver, existe una forma aún
más básica: la digitalización directa de valores y coordenadas, sin necesidad alguna
de dispositivos especializados o elementos gráficos. En este tipo de digitalización
no existe un mapa o documento cartográfico, sino simplemente una serie de datos
espaciales expresados de forma alfanumérica que son susceptibles de convertirse
en una capa y emplearse así dentro de un SIG.
Este proceso se conoce como geocodificación [67] e implica la asignación de
coordenadas a puntos de interés, los cuales pueden ser de naturaleza muy variada.
Asimismo, la procedencia de estos datos también puede ser muy variada, y en
general muchas formas de trabajo en campo dan lugar a datos que, aún no estando
originalmente dispuestos sobre mapas, sí que pueden emplearse como base para
la creación de capas. Algunos ejemplos son los siguientes:
Muestreos de campo tales como la medición de parcelas en un inventario fores-
tal. Cada parcela tiene una coordenada correspondiente a su centro, y los árbo-
les medidos se referencian con un rumbo y una dirección en base a ese centro.
Calicatas para análisis de suelo
Levantamientos topográficos con instrumentación tanto analógica como
digital. Existe un conjunto de instrucciones y procedimientos denominado
COGO (COordinate GeOmetry), que facilita el trabajo con datos en forma de
distancias y ángulos, de forma que las mediciones efectuadas a lo largo de un
recorrido empleando un equipo tal como una estación total, un teodolito o un
nivel con una mira, todos ellos pueden posteriormente convertirse con sencillez
a coordenadas mediante la incorporación al SIG de ese conjunto de valores.
Coordenadas en las que han sucedido algún tipo de sucesos. Por ejemplo, la
geocodificación de localizaciones en las que han tenido lugar sucesos crimina-
les permite posteriormente el análisis de su distribución y el establecimiento
de políticas de seguridad más acordes con el escenario real.
Coordenadas de cierto tipo particular de elementos, tales como elementos
arquitectónicos, árboles singulares, paradas de autobús. Estas permiten la
localización rápida de estos y una fácil catalogación, además de, en cone-
xión con otras capas, cálculos como, por ejemplo, la forma más rápida de
desplazamiento hasta uno de ellos.
Coordenadas correspondientes a otras formas de codificación espacial. Sis-
temas de localización espacial tales como códigos postales o, por ejemplo,
los sistemas de indexación espacial CGDG o c-squares [68], pueden todos
ellos vincularse a coordenadas geográficas, de tal modo que a cada uno de
los códigos de estos sistemas se le asigne una de tales coordenadas.
En la actualidad, Internet está viendo aparecer tendencias relacionadas con
la asignación de una localización geográfica a muchos de sus elementos. Así,
Fuentes principales de datos espaciales 153
20 22 24 26 28 30
6.5.4. Fotogrametría
Un caso particular de digitalización lo encontramos en la fotogrametría. En la
definición clásica de [70], esta se define como la técnica para estudiar y definir con
precisión la forma, dimensiones y posición en el espacio de un objeto cualquiera,
utilizando medidas realizadas sobre una o varias fotografías. Esta definición no
limita el alcance de la fotogrametría al ámbito de lo geográfico, y se utilizan sus
principios en campos tales como la arqueología o la documentación de obras y
monumentos, empleando para ello fotografías no aéreas, sino terrestres. Es la deno-
minada fotogrametría terrestre. No obstante, la rama de interés para este libro es la
de la fotogrametría aérea, cuya base de trabajo tradicional son las fotografías aéreas.
Esta clase de fotogrametría viene, pues, ligada íntimamente a los inicios de
la teledetección, cuando los sensores modernos que hemos estudiado antes en este
mismo capítulo no se habían desarrollado, y los existentes (básicamente cámaras
fotográficas especialmente adaptadas a la toma de fotografías de tipo cartográfico)
se montaban a bordo de aviones. Es por esta razón que tradicionalmente existe una
conexión indudable entre ambas materias, no existiendo una frontera clara entre
Fuentes principales de datos espaciales 155
capaces de tomar este tipo de imágenes. En la dirección Web [71] puede encontrarse
información detallada sobre las cartografía de elevaciones generada a partir de
pares de imágenes tomadas por el satélite SPOT, junto con algunas ilustraciones
y animaciones explicativas al respecto.
Las formas de conseguir que el observador perciba la profundidad de la escena
a partir de las imágenes son variadas, y van desde el uso de sencillos instrumentos
ópticos o la generación de anaglifos (imágenes que combinan la información del
par estereoscópico y que se han de observar con gafas con filtros distintos para
cada ojo), hasta otras técnicas más complejas y elaboradas. En la fotogrametría no
digital, el empleo de restituidores analíticos ha sido la metodología habitual. En la
fotogrametría digital, este puede sustituirse por un equipo con dos monitores, cada
uno de los cuales muestra una de las imágenes del par, y se emplean gafas especiales
que son las encargadas de generar en el observador la sensación de profundidad .
Además de lo anterior, la estación fotogramétrica digital dispone de periféricos
específicos tales como ratones 3D, o manivelas como las que presentan los resti-
tuidores analíticos, facilitando así la adaptación de los operarios a este tipo de
estación (Figura 6.15).
Por último el software que implementan, y que es el encargado de representar
las imágenes y acoger el proceso de digitalización, suele ser específico, y es frecuente
que se distribuya como parte de toda una estación fotogramétrica compuesta por
los elementos reseñados anteriormente. Algunos SIG incorporan progresivamente
capacidades adaptadas de este tipo de programas, pero por el momento la labor
fotogramétrica queda reservada para este tipo de aplicaciones específicas, siendo
el SIG tan solo un beneficiario directo de sus productos.
Para el lector interesado en saber más acerca de los distintos elementos de la
fotogrametría, obras como [72] o [73] son recomendables, esta última disponible de
forma libre. En la dirección Web [74] puede encontrarse otra excelente referencia
libre en dos tomos sobre fotogrametría analítica y digital.
158 Sistemas de Información Geográfica
a) b) c)
Figura 6.16: Errores derivados del proceso de digitalización. a) Versión correcta, con nodos
coincidentes. b) y c) Versiones con errores que causan una falsa desconexión entre las líneas.
6.6. GPS
Uno de los hitos en la aparición de nuevas fuentes de datos geográficos es la apari-
ción de los Sistemas Globales de Navegación por Satélite (GNSS)21 , que permiten la
obtención de coordenadas geográficas de un modo inmediato, con las consecuencias
que esto tiene para su uso en actividades como la elaboración de cartografía.
En esencia, un GNSS es un sistema que permite conocer en todo momento y en
cualquier punto del globo la localización exacta de dicho punto con un margen de
error del orden de unos pocos metros o menos. Para ello, se basan en el envío de seña-
les entre un dispositivo situado en el punto concreto y una red de satélites, pudiendo
establecerse la posición exacta mediante las características de dicha transmisión.
El ejemplo más extendido de un GNSS es el Sistema de Posicionamiento Global
(Global Positioning System, o GPS)22 , originalmente puesto en funcionamiento por
el Departamento de Defensa de los Estados Unidos. Actualmente, este es el único
GNSS completamente operativo, aunque existen otros tales como el GLONASS
21
Global Navigation Satellite System
22
El nombre completo del sistema es NAVSTAR–GPS (NAVigation SysTem And Ranging
- Global Position System)
Fuentes principales de datos espaciales 161
a)
b)
En conjunto, todos estos errores suman desviaciones apreciables, que sin em-
bargo pueden corregirse con la aplicación de técnicas adicionales, por ejemplo
incorporando información adicional procedente de otros receptores. Una de estas
técnicas es el denominado GPS diferencial, pensado en origen para eliminar el
error de la disponibilidad selectiva, aunque también eficaz para corregir una buena
parte los restantes errores citados anteriormente.
Para la aplicación del GPS diferencial se requiere no solo un receptor único
(aquel del cual se quiere calcular su posición), sino también otro receptor fijo de
referencia cuyas coordenadas se conocen con alta precisión. Este receptor fijo es,
a su vez, un receptor de alta precisión y, además de calcular su propia posición,
emite información que las unidades receptoras pueden aprovechar para corregir
sus mediciones. El receptor móvil, lógicamente, tiene que soportar este tipo de
correcciones, para poder hacer uso de la señal de la estación de referencia.
Los datos que permiten llevar a cabo la corrección puede obtenerse en el recep-
tor mediante radio, descargarse por Internet mediante una conexión inalámbrica,
o bien utilizar una constelación de satelites adicional dedicada a elaborar y servir
este tipo de datos.
La corrección puede realizarse fuera del propio receptor, a posteriori, utilizando
software adecuado y los mismos datos de corrección que si se realiza la corrección
en tiempo real.
El fundamento de este sistema es que los errores que afectan al receptor móvil
también afectan al de referencia. No obstante, la magnitud del error que afecta
al receptor de referencia puede conocerse, ya que se conoce la coordenada exacta
de este, y en base a eso puede eliminarse el error que afecta al receptor móvil,
asumiendo que ambos errores son de similar índole.
En la actualidad, aplicando estas técnicas de corrección diferencial, un GPS
puede obtener precisiones del orden de 2 metros en latitud y longitud, y 3 en
altitud[79]. Sin corrección diferencial, esta precisión es de unos 10–20 metros.
La figura 6.19 muestra un esquema del funcionamiento del GPS diferencial.
Fuentes principales de datos espaciales 165
que los receptores utilicen, encontramos una gran variedad de unidades receptoras,
según estas se adapten para uno u otro uso principal. En líneas muy generales, los
siguientes son algunos de los tipos principales en función de dicho uso.
GPS para uso general. Unidades pequeñas y portátiles, de bajo coste, para
actividades al aire libre, donde no se requiere una precisión elevada sino
simplemente un conocimiento de la posición aproximada. Se emplean, por
ejemplo, para recoger rutas en senderismo o navegación. Estas unidades,
además de informar de la posición y ser capaces de almacenar esta, suelen dis-
poner de capacidades de representación de mapas en pantalla, de forma que la
información sobre la posición sea más útil para el usuario. Otros, como los na-
vegadores GPS para coche, son capaces de calcular rutas óptimas, combinan-
do la posición calculada con una cartografía de vías previamente incorporada
al dispositivo. La figura 6.20a muestra un receptor GPS de uso general.
GPS para la medición topográfica. Unidades de medio tamaño, generalmente
con una antena independiente que se conecta a la unidad y que el propio
operario carga a la espalda. La antena garantiza mayor precisión y una mejor
localización de satélites en condiciones tales como zonas bajo arbolado. Están
pensados para un uso profesional en levantamientos o replanteos, ofreciendo
buena precisión en todas las coordenadas. En la figura 6.20b puede verse unos
de estos receptores. Estos son los GPS de mayor interés para el uso dentro de
un SIG, ya que ofrecen datos de campo precisos que cumplen con las necesi-
dades que habitualmente se tienen en un proyecto SIG. Los datos recogidos
por estas unidades pueden ser sencillamente incorporados a un ordenador,
y en ocasiones la propia unidad dispone de aplicaciones propias, más allá
de la mera visualización de cartografía asociada, como en el caso anterior.
GPS para la medición del tiempo. Estos GPS no resultan de tanto interés
para su uso en un SIG, ya que se encuentran fijos en un punto y no conceden
importancia a la localización espacial, sino tan solo al tiempo. Se utilizan
en estudios que requieran una medición muy precisa del tiempo, ya que la
referencia temporal que ofrece el sistema GPS es muy precisa y estable.
a) b)
Figura 6.20: Receptor GPS de bajo coste para uso general (a) y receptor GPS de alta
precisión con antena externa (b)
Por su parte, las unidades de mayor precisión están concebidas para tareas
tales como levantamientos topográficos, donde la toma de datos es lo fundamental,
pero también para otras tales como replanteos, donde se requiere situar un punto
de coordenadas conocidas. Al igual que en el anterior, las actividades que pueden
llevarse a cabo con estos GPS y que interesan desde el punto de vista del SIG
son aquellas que van a recoger coordenadas, pues son las que generan datos y
convierten al GPS en una fuente de ellos.
Las capacidades de recogida de datos en una unidad GPS de bajo coste per-
miten almacenar puntos o trazados completos, encontrándose el operario inmóvil
o bien en movimiento a lo largo de dicho trazado. Es habitual utilizar los vocablos
ingleses de la terminología GPS para denotar los distintos elementos que pueden
recogerse, conociéndose a un punto de interés aislado como waypoint y un trazado
como track. Una serie ordenada de waypoints se conoce como route (ruta).
En el trabajo con el receptor GPS, el operario se puede detener en un punto
cualquiera y memorizar las coordenadas del mismo, añadiendo así un waypoint
a la lista de los ya almacenados. Para crear un trazado, se suele disponer de funcio-
nalidades de recogida automática de puntos, de tal modo que el receptor memoriza
estos a intervalos fijos de tiempo. El operario simplemente ha de desplazarse por
el trazado y dejar que el receptor haga su trabajo mientras tanto. Dependiendo
del tipo de dato que quiera obtenerse, la edición posterior en gabinete habrá de
ser más o menos intensa.
Esta edición no está relacionada solo con la introducción de correcciones, sino
con la interpretación de los distintos puntos recogidos. Por ejemplo, para registrar
el trazado de una calle, el operario puede recorrerla, pero es probable que no lo
haga de forma perfectamente rectilínea. El trabajo posterior con el conjunto de
puntos debe resultar en la obtención de una línea recta a partir de estos, y ello
requiere la interpretación de los datos disponibles.
168 Sistemas de Información Geográfica
Se trata del método más preciso, pero requiere tiempos de observación muy
largos (superiores a una hora), lo que lo hace inadecuado para levantamientos
o replanteos. Este tipo de procedimientos se emplean casi exclusivamente
en trabajos geodésicos y las lineas base pueden ser de gran longitud.
Estático rápido. Igual que el anterior, pero con tiempos menores, del orden
de 5–10 minutos por punto medido.
Cinemático. En el método cinemático los tiempos son aún menores que en el
estático rápido, del orden del minuto. El fundamento de la técnica es distinto a
los anteriores, ya que tras la inicialización el receptor móvil puede desplazarse
con más velocidad y no es necesario que se detenga durante un periodo largo
de tiempo en cada punto, pero ello exige que durante el desplazamiento tanto
la unidad móvil como la fija de referencia mantengan la recepción de las
señales, que han de ser de al menos cuatro satélites (preferiblemente cinco),
y los mismos para ambas unidades. Si alguna de ellas pierde la conexión, se
hace necesario repetir de nuevo el proceso de inicialización [83].
Existe una gran variedad de procedimientos de tipo cinemático, cuya filosofía
es esencialmente la misma, pero bajo nombres distintos. Aunque pueden
existir diferencias en los fundamentos teóricos, la forma de proceder es en
muchos casos muy similar. Técnicas como Stop & Go o pseudocinemático
pueden incluirse en este tipo de métodos. En general, estos y otros se en-
globan bajo la denominación de procedimientos cinemáticos, aunque sus
características sean distintas en cada caso.
Muchos de estos procedimientos vienen definidos por el equipo a utilizar, y
los tiempos de paradas en cada punto medido, así como otros aspectos, son
recomendados por el propio fabricante. La forma más correcta de llevar a
cabo una toma de datos en campo, en este caso, es seguir las indicaciones
concretas del fabricante de para cada producto.
Un caso particular dentro de los métodos cinemáticos es el cinemático en
tiempo real (RTK)24 , en el que, a diferencia de los anteriores, las correcciones
necesarias se efectúan en tiempo real y no requieren postproceso. Se trata
de la técnica más actual, y proporciona al operario mediciones exactas de
su posición de forma instantánea, con las ventajas que ello conlleva. Las
mediciones son más precisas, ya que el operario que las toma conoce el valor
recogido en el mismo momento de hacer la medición, y puede de esa forma
realizar una comprobación en el acto. Información más detallada sobre esta
técnica puede encontrarse en [84].
Para profundizar más al respecto, en [85] puede encontrarse información sobre
la realización de levantamientos con GPS, así como en [86].
En base a los ejemplos anteriores, y para concluir esta parte, podemos dar una
clasificación de las operaciones con un receptor GPS en función de tres criterios
24
Real Time Kinematic
170 Sistemas de Información Geográfica
otros los exploten posteriormente. Aunque no se trata de una fuente de datos como
tal, y los elementos y dispositivos empleados ya los hemos visto a lo largo de este
capítulo, el cambio que supone la inclusión de una filosofía acorde con las ideas de
la Web 2.0 es tan notable que merece ser tratado por separado. No se trata de un
cambio en la propia toma o preparación de datos, o de una tecnología nueva que se
aplique a estos, sino de un cambio social y filosófico que redefine el propio concepto
de la información geográfica en lo que a la creación del dato geográfico respecta,
y cuyas consecuencias son ciertamente importantes, ya que abren el ámbito de la
creación cartográfica a un nuevo y amplio grupo de personas.
Se conoce como Información Geográfica Voluntaria o Participativa (en inglés
Volunteered Geographical Information, VGI)[88] al uso de Internet para crear,
gestionar y difundir información geográfica aportada voluntariamente por usuarios
de la propia red. El conjunto de herramientas y técnicas que emplean esos usuarios
para aportar su información conforma lo que se ha dado en llamar neogeografía.
La comparación entre proyectos de creación de VGI y la bien conocida Wikipe-
dia, tal y como se comentó en otro punto anterior en este mismo capítulo, sirve
perfectamente para ilustrar qué es lo que entendemos por VGI y neogeografía.
En el caso particular de esta última, la neogeografía ha supuesto un profundo
cambio en algunas de las ideas básicas de la cartografía, modificando asimismo la
concepción tradicional de la información geográfica, sus características o el papel
que esta venía desempeñando en muchos ámbitos (o incluso dándole un papel
en campos donde con anterioridad el uso de información geográfica era escaso).
Algunas de las ideas principales sobre la neogeografía son las siguientes:
Popularización y democratización. La producción cartográfica ha estado
siempre en manos de gobiernos u organismos, y en muchas ocasiones fuer-
temente censurada debido a su elevado valor estratégico. Con la VGI, la
creación de información geográfica se democratiza y se convierte en un
proceso participativo libre y sin restricciones. Se invierte el esquema «hacia
abajo» de producción y uso de información geográfica.
Los ciudadanos se convierten en «sensores» y tienen mayor consciencia de
su realidad geo–espacial.
Se elimina parte del «misticismo» de la producción de información geográfica
En parte, estas ideas son también comunes a otros fenómenos basados en la Web
2.0, ya que todas se fundamentan en una mayor democratización de la información,
sea esta geográfica o no. También se comparten algunos de los problemas o críticas
que otros ámbitos han recibido al adoptar esquemas de producción similares.
Por ejemplo, la calidad de la información es puesta en entredicho al promover la
participación de todo tipo de personas, con independencia de su perfil. En el caso
de la información geográfica, con una producción tradicionalmente como hemos
dicho limitada a profesionales muy especializados, esto es especialmente relevante.
Con la proliferación de la VGI, se da voz y poder sobre la información geográfica
a individuos en gran medida sin formación, que no obtienen un beneficio tangible
Fuentes principales de datos espaciales 173
imagen en color contiene tres, ya que los colores se expresan como una terna de
colores básicos: rojo, verde y azul. Este es el fundamento del modelo de color RGB,
en el cual todo color es la combinación de distintas intensidades de los anteriores
colores básicos. Las intensidades de cada banda (o las intensidades de la única
banda en el caso de una imagen en escala de grises) se expresan habitualmente
con valores entre 0 y 255, un rango que resulta insuficiente para el manejo de otras
variables tales como las variables físicas que pueden emplearse en un SIG, ya que
estas presentan valores continuos.
En estos casos, los formatos de imágenes no son adecuados en su forma original,
y deben o bien adaptarse o bien emplearse formatos más específicos que tengan
en cuenta el tipo particular de imágenes que se almacenan.
Otro problema es la presencia de celdas sin datos. La existencia de celdas sin
datos es un hecho que no contemplan los formatos de imágenes. A estas celdas
se les asigna un valor establecido por defecto, el cual ha de definirse en el propio
archivo para que después sea reconocido por el SIG (para que sepa que, donde
aparezca ese valor, realmente no existen datos), pero muchos formatos de imagen
no puede almacenarlo. Una posible solución es la utilización de formatos que
permitan transparencia. En estos, se puede especificar un color como transparente,
que a efectos de su utilización en un SIG puede considerarse como indicación de
la ausencia de datos. Estos formatos, no obstante, no son los más adecuados para
datos SIG, y esta solución no resuelve por completo esta deficiencia.
Otra deficiencia de los formatos de imágenes es que no pueden recoger la
referencia geográfica de la imagen. Salvo que las imágenes sean utilizadas en un
SIG, no hay necesidad de que estas contengan información tal como el tamaño
de píxel (los metros que cada píxel representa en la realidad) o las coordenadas de
la zona que recogen. Por ello, las definiciones de los formatos de imagen, al estar
pensadas para recoger meras imágenes digitales (y no imágenes de satélite o aéreas
destinadas a un análisis espacial), no tienen en cuenta estas necesidades.
Una forma habitual de resolver esto es acompañar cada fichero de imagen
con un pequeño fichero de texto plano donde se contengan los datos geográficos
correspondiente a la imagen. Este fichero se denomina World File, y tiene una
forma como la siguiente:
1.0
0.0
0.0
-1.0
691200.0
4576000.0
incorporan en paginas Web han de ser de pequeño tamaño para agilizar su carga, y
ese tamaño resulta un factor decisivo, especialmente donde la velocidad de conexión
es limitada. Para el trabajo con un SIG, no obstante, la calidad de la imagen es
de mucho mayor importancia que su tamaño, y los formatos de compresión sin
pérdidas responden mejor a las necesidades del almacenamiento de datos SIG.
En la imagen 6.21 puede verse el efecto de la utilización de compresión con
pérdidas.
Junto con los formatos de archivo para imágenes, los SIG ráster han desarrollado
sus propios formatos para el almacenamiento de capas ráster en general, y en parti-
cular de aquellas que no representan imágenes, tales como capas de variables físicas.
Estos formatos están pensados para las características de estas capas, que
habitualmente recogen valores decimales (a diferencia de los valores enteros de los
Niveles Digitales de una imagen), y que no suelen contener más que una única banda.
Además de corresponder a un SIG particular (prácticamente cada SIG tiene
su propio formato de archivo ráster), otras aplicaciones que trabajan con este tipo
de datos, tales como todas aquellas que usan por una u otra razón información de
elevaciones, también disponen de sus formatos particulares. Muchos SIG pueden
leer algunos de estos formatos junto con los suyos propios o los de otros SIG.
A la hora de almacenar una capa tal como un Modelo Digital del Terreno o
cualquier otra de similar índole, estos formatos son preferibles en general a las
imágenes, ya que los formatos de imagen, aunque ya hemos visto que pueden
adaptarse y ser en algunos casos plenamente operativos para otro tipo de variables,
no son formatos puramente pensados para este tipo de información.
Fuentes principales de datos espaciales 181
Los formatos más extendidos para datos SIG vectoriales son los siguientes:
Shapefile (shp). Propuesto por la empresa ESRI, es el formato más utiliza-
do en la actualidad, convertido en un estándar de facto. No soporta topología
y se compone de diversos ficheros, cada uno de los cuales contiene distintos
elementos del dato espacial (geometrías, atributos, índices espaciales, etc.)
26
American Standard Code for Information Interchange. Un esquema de codificación de
caracteres ampliamente utilizado.
Spatialite. Una extensión espacial para la base de datos SQLite. Se trata de
una base de datos, pero no tiene la arquitectura clásica de esta, con aplicación
cliente y un servicio que provee los datos (lo veremos con más detalle en el
capítulo 8), sino que toda ella se encuentra almacenada en un fichero que
puede copiarse o eliminarse de la forma habitual.
GeoJSON. Un formato de texto plano basado en notación JSON27 , de
uso extendido debido a su simplicidad. Existe una variante denominada
TopoJSON, que permite el almacenamiento de topología.
6.10. Resumen
Los datos con los que trabajamos en un SIG pueden venir de muy distintas
procedencias. Distinguimos aquellos que provienen directamente de algún tipo
de medida o del empleo directo de alguna instrumentación (fuentes de datos
primarias), y otros que proceden de procesar un dato ya existente para adaptarlo
a su uso en un SIG (fuentes de datos secundarias).
Una forma básica de crear datos espaciales digitales es la utilización de fuentes
no digitales y su digitalización. Este proceso puede llevarse a cabo tanto de forma
manual como automatizada, y puede dar como resultado tanto capas ráster como
capas vectoriales.
La teledetección es una fuente de datos de gran importancia para los SIG.
Dentro de ella se incluyen técnicas de muy diversa índole cuyos productos son
muy distintos entre sí. El fundamento de la teledetección es la medición de las
propiedades de los objetos realizada sin que medie contacto con estos. Para ello,
se emplean sensores que pueden ir a bordo de aviones o montados sobre satélites,
y que pueden ser de tipo pasivo o activo. El resultado del proceso de teledetección
son imágenes con un número variable de bandas, aunque tecnologías como el radar
o el LiDAR pueden emplearse para la generación de cartografía de elevaciones.
Dentro de las tecnologías que permiten la recogida de datos en campo, el GPS
ha supuesto un cambio en la realización de este tipo de trabajos, y su integración
en SIG es sencilla. Esto les ha convertido en una fuente de datos muy utilizada
en un gran número de proyectos SIG.
Independientemente de su origen, los datos espaciales se almacenan en archivos
cuyos formatos son a su vez muy variados. En este capítulo hemos visto algunos
de los más habituales, así como los aspectos más importantes que los definen, y
que han de tenerse en cuenta a la hora de trabajar con dichos formatos y elegir
los más adecuados.
27
JavaScript Object Notation
184 Sistemas de Información Geográfica
Capítulo 7
Todo dato espacial contiene algún tipo de error, en mayor o menor medida. Conocer las
razones por las cuales aparecen esos errores es importante para poder evaluar correctamente
la validez del trabajo que realizamos con los datos y los resultados que obtenemos a partir
de ellos. En este capítulo se estudiaran los principales errores que pueden afectar a los
distintos tipos de datos espaciales, las fuentes principales de dichos errores y las maneras
en que estos pueden gestionarse dentro de un proyecto SIG.
Puesto que los datos son la materia prima para obtención de nuevos datos a través de los
procesos y operaciones que dentro de un SIG realizamos con ellos, trataremos también la for-
ma en que los errores en los datos de partida afectan a los resultados que derivemos de ellos.
7.1. Introducción
Puesto que los datos son la base de todo el trabajo que realizamos en un SIG,
su calidad es vital para que ese trabajo tenga sentido y aporte unos resultados cohe-
rentes y útiles. Siendo la calidad el conjunto de propiedades y de características de
un producto o servicio que le confieren su aptitud para satisfacer unas necesidades
explícitas e implícitas [93], desde el punto de vista del SIG unos datos espaciales de
calidad serán aquellos que puedan servir para alcanzar los objetivos de un proyecto
concreto, dando sentido a este. En este aspecto, se debe considerar la disposición
de los datos per se, aunque también las necesidades a las que pretendemos dar
respuesta mediante los datos que utilizamos.
Por definición, ningún dato es perfecto. Todo dato que utilicemos va a contener
errores, y estos pueden ser desde totalmente irrelevantes para el desarrollo de
un proceso de análisis hasta de tal magnitud que desvirtúen por completo los
resultados de dicho análisis. Es importante no solo contar con datos de calidad
en los que estos errores sean mínimos, sino conocer el tipo de error que existe en
nuestros datos y la magnitud de estos. Saber gestionar el error y ser consciente
de las limitaciones de los datos de los que se dispone es importante para saber
interpretar los resultados derivados del trabajo con dichos datos.
A lo largo de este capítulo veremos los aspectos más importantes que derivan
de considerar el error como parte inevitable de nuestro trabajo con datos espaciales.
Ello nos permitirá saber evaluar las capacidades de los datos para servir como
punto de partida de nuestro trabajo, y a llevar este a cabo de la mejor manera
186 Sistemas de Información Geográfica
nalidades al respecto. Dicho de otro modo, existen las formulaciones y los elementos
teóricos, pero estos aún no se han visto materializados (o lo han hecho de forma
prácticamente anecdótica) en los SIG de uso habitual. Por esta razón, la mayoría de
usuarios de SIG no tienen en cuenta rigurosa y formalmente la calidad de los datos a
la hora de desarrollar su trabajo, quedando aún mucho por avanzar en este sentido.
Un elemento clave para el control de la calidad es la existencia de metadatos,
que informan acerca de dichos datos sobre una serie de aspectos relativos a estos,
entre ellos aquellos que afectan a la calidad. Los metadatos se tratan con gran
profundidad dentro de este libro en el capítulo 31.
Dependiendo del uso que se pretenda dar a una capa de datos geográficos, se
requerirá una u otra precisión. Un trabajo geodésico requerirá medir la localiza-
ción de un punto con precisión milimétrica, mientras que para un muestreo para
188 Sistemas de Información Geográfica
geográfica. La precisión con la que se toma esta condiciona la calidad del dato.
Esta precisión puede considerarse únicamente en los ejes x e y, o también
en el eje z (elevación). Esta última, no obstante, puede considerarse como
un atributo si se trabaja en un SIG bidimensional, y tratarse de la misma
forma que cualquier otra variable de similar índole sin significado espacial,
tal como la temperatura en el punto (x,y) en cuestión.
Exactitud en los atributos. Si la componente espacial puede tener erro-
res, estos también pueden aparecer en la componente temática. Los valores
asociados a una coordenada u objeto espacial pueden haber sido medidos
con más o menos exactitud, o presentar valores incorrectos por muy diversas
causas. Cuando el atributo en cuestión es de tipo categórico, puede existir un
error de clasificación (se asocia la entidad espacial a una categoría errónea),
mientras que en el caso de atributos no categóricos pueden sencillamente
aparecer valores mayores o menores que los reales.
Consistencia lógica y coherencia topológica. Los datos espaciales no
son elementos independientes, sino que existen relaciones entre ellos. Un
dato de calidad debe recoger fielmente estas relaciones, siendo la topología
la encargada de reflejar este tipo de información. Por ello, debe existir una
coherencia topológica en el dato espacial. Además de la coherencia de las
relaciones, existe una coherencia implícita en todo atributo o valor recogido,
de forma que resulte lógico. Estos atributos y valores han de ser coherentes
con las escalas de medida o el tipo de valor que se espera, entre otros. Así
un valor de elevación no puede ser igual a «suelo calizo», ni un valor de
temperatura expresado en Kelvin igual a -87.
Compleción. El dato espacial no recoge todo lo que existe en una zona
dada. Algunos elementos pueden no haberse recogido por cuestiones de escala
(menores de un tamaño mínimo), pero también pueden incluirse o excluirse
en función de otros criterios, en especial para el caso de mapas temáticos.
Estos criterios deben conocerse para saber por qué un dato espacial contiene
una serie de valores o elementos y no otros.
Calidad temporal. Aunque los datos espaciales son «imágenes» estáticas
de la realidad, el tiempo es importante en muchos sentidos, pues afecta
directamente a su calidad. La realidad que representa un dato geográfico
es una realidad que varía con el paso del tiempo, y por tanto este paso del
tiempo puede degradar la calidad del dato espacial en mayor o menor medida.
Procedencia. Un dato espacial puede provenir de una fuente más o menos
fiable, o haber sido generado a través de uno o varios procesos, en cada uno
de los cuales se puede haber introducido algún tipo de error. Conocer la
procedencia de un dato y los procesos que se han empleado en su confección
es necesario para poder evaluar su calidad.
Es importante recalcar que los errores que pueden incorporarse en estas compo-
nentes de la calidad pueden ser tanto de tipo cuantitativo como de tipo cualitativo,
La calidad de los datos espaciales 191
11 11 11 11 11 11 11 11 11
a) 11 10 11 b) 11 7 11 c) 11 12 11
11 11 11 11 11 11 11 11 11
Figura 7.2: a) MDE con valores reales. b) y c) Dos MDE con errores posicionales en
z. En el caso c), el error no solo es cualitativo, sino también cuantitativo, ya que modifica
la forma del terreno, pasando de ser una depresión a ser un pico.
c
d
Figura 7.3: Algunos errores que aparecen en la digitalización de lineas. a) Registro inexacto,
b) puntos mal situados, c) desplazamientos por vértices insuficientes, d) errores de registro.
Entre los errores que pueden aparecer encontramos falsos nudos (intersecciones
de una línea consigo misma que no existen en realidad), puntos situados fuera del
objeto, coincidencia imperfecta entre polígonos o mala referenciación de la hoja
al situarla sobre la tableta (en el proceso de registro).
El problema principal en el caso de digitalizar líneas o polígonos (que pueden
causar la aparición de mayor número de errores por su mayor complejidad) estriba
en que aquello que se digitaliza es un conjunto infinito de puntos, y el proceso
de digitalización solo puede recoger un número finito de ellos y después unirlos
mediante segmentos rectilíneos.
La componente temática de una capa vectorial también puede adolecer de
errores, que derivan a su vez tanto del proceso de introducción de los mismos como
de los procesos de medición mediante los que se ha obtenido el valor concreto.
En el caso de capas ráster, sin embargo, existen algunas fuentes de error que
tienen menor importancia, mientras que otras sí han de tenerse en cuenta por su
relevancia. Por ejemplo, la introducción de la componente temática en una capa
vectorial puede hacerse manualmente con el teclado, mientras que en el caso de
una capa ráster los valores de las celdas no se introducen manualmente.
Ello no significa que las capas ráster no presenten errores en sus valores, pero
el origen de estos es diferente. Un error habitual aparece en capas con información
categórica que proceden de la clasificación de imágenes aéreas o de satélite. Los
procesos que clasifican cada píxel de la imagen en función de sus Niveles Digitales
(los cuales veremos en el capítulo 20) introducen frecuentemente errores, y aparecen
La calidad de los datos espaciales 193
e' e'
a) b)
e e
Figura 7.4: Un error e pueden tener distintas consecuencias según interactúen con los erro-
res de otros datos espaciales (e0 ). En a) los errores casi se anulan, mientras que en b) se suman
y dan lugar a un resultado erróneo. Los elementos en negro y gris indican la posición real.
1
Este hecho tiene relación con el concepto de autocorrelación espacial, que veremos en detalle
en el capítulo 10, y que expresa la idea lógica de que las mediciones cercanas deben tener valores
similares
196 Sistemas de Información Geográfica
v
uN
uX (yi −y 0 )2
i
EMC = t (7.5.1)
i=1
N
dato original pueden no tener apenas efecto en el resultado, mientras que pequeños
errores pueden causar grandes alteraciones en la calidad del resultado [103].
Una de las áreas en las que más se ha trabajado en el estudio de la propagación
de errores es el trabajo con Modelos Digitales de Elevaciones. Como veremos en el
capítulo 15, los MDE son un dato de primer orden, ya que resultan de utilidad en
prácticamente cualquier tipo de proyecto SIG, y son muy numerosos los distintos
parámetros que podemos derivar de ellos. Por esta razón, la propagación de errores
es un asunto importante dentro del trabajo con un MDE, pues de él se van a
obtener muchos datos nuevos, e interesa saber cómo la calidad de estos nuevos
datos se va a ver afectada por la calidad del MDE de partida.
El error principal que se estudia en este tipo de análisis en un MDE es el
de los atributos, es decir, el de la elevación. Los datos empleados se basan en el
modelo de representación ráster, ya que este es el más habitualmente empleado
para los análisis de un MDE. No obstante, metodologías como la que veremos a
continuación pueden aplicarse igualmente para la modelación de otros errores,
tales como los errores posicionales en la digitalización de una capa vectorial.
La metodología más extendida para la modelación de errores es la basada en
simulaciones de Monte Carlo. El fundamento de este método es considerar un dato
espacial dado (un MDE para el caso de este ejemplo) como una de las posibles
«versiones» de la realidad que pueden existir con una magnitud de error concreta.
Evaluando el error existente en un dato espacial y su distribución, y realizando
simulaciones estocásticas en base a este, pueden obtenerse otras de esas «versiones»
de la realidad. Posteriormente, puede realizarse el análisis no sobre el MDE con tal,
sino sobre todo ese conjunto de datos derivados del MDE y su distribución de error.
De este modo, se simula la presencia de error añadiendo ruido al MDE original,
pero de una forma acorde con el propio error existente en el dato base. De las
alternativas que se obtienen mediante estas simulaciones, ninguna de ellas tiene
que ser necesariamente correcta y carente de errores [104] (lo más probable es que
ninguna lo sea), pero el conjunto define un intervalo probable en el cual se situarán
los valores reales. Se modela así la incertidumbre existente en el dato y la forma
en que esta se propaga a los datos derivados.
En el caso del MDE propuesto, y para una operación dada a aplicar sobre este,
la forma de proceder puede resumirse en los siguientes pasos [98]:
Estudiar la distribución del error en el MDE en base a un juego de datos de re-
ferencia (generalmente un conjunto de puntos con mediciones precisas). Para
modelizar el error no basta simplemente medir este con un parámetro como
el error medio cuadrático, sino analizar su distribución y calcular parámetros
estadísticos en base al conjunto de todos los errores medidos. Si se asume
una distribución normal de los errores, la media y la desviación típica son
necesarias para definir esa distribución. Al igual que sucede con los datos en sí,
los errores presentan una dependencia espacial. Esto es, cerca de un valor que
presenta un gran error, aparecerán otros también con errores notables, y cerca
198 Sistemas de Información Geográfica
Para ver con más claridad el efecto de este proceso, la figura 7.7 muestra
respectivamente los resultados obtenidos a partir de un MDE, y la media de 20
y 50 simulaciones obtenidas según lo explicado anteriormente para el calculo de
la curvatura horizontal (esté parámetro se explica en el capítulo 15).
Pese a su importancia, las herramientas para estos análisis no se implementan
de forma habitual en los SIG, sino que deben llevarse a cabo utilizando funciona-
La calidad de los datos espaciales 199
Figura 7.7: De izquierda a derecha, curvatura horizontal obtenida a partir del MDE
original o como media de 20 y 50 simulaciones de Monte Carlo (tomado de [103])
7.8. Resumen
Pese a no haber sido una preocupación importante en los comienzos de los
SIG, la calidad de los datos geográficos es hoy en día un aspecto clave para el
trabajo con SIG. Las etapas fundamentales relativas a la calidad de los datos son
la identificación de la fuente de error, su detección y medición, su modelación y,
por último, la gestión de dicho error.
Las fuentes de error principales son las deficiencias de los datos originales, los
errores conceptuales, los derivados de los procesos de digitalización y los introduci-
dos en la realización de procesos con los datos. Estas fuentes introducen errores de
posicionamiento, errores en los atributos asociados o de coherencia topológica, entre
otros. Estas son algunas de las denominadas componentes de la calidad, entre las que
también encontramos la procedencia de los datos o la validez temporal de los datos.
Los errores aparecen de forma distinta en función de las características de los
datos, en particular del modelo de representación elegido.
Detectar los errores puede realizarse de forma visual o bien de forma analítica,
pudiendo automatizarse en este segundo caso. El error medio cuadrático es la
medida más habitual del error en el caso de variables cuantitativas, mientras que
la matriz de confusión es empleada para variables cualitativas.
Modelar el error y su propagación puede emplearse para conocer de forma más
adecuada la validez de los resultados obtenidos a partir de un dato espacial. La
realización de simulaciones condicionales mediante el método de Monte Carlo es
la técnica más habitual para la modelación de errores.
Por último, es importante ser consciente de los errores que contienen los datos
y de la posible aparición de estos a medida que realizamos tareas con ellos, con
objeto de minimizar dicha aparición y limitar la presencia e influencia de los errores
en los resultados finales.
202 Sistemas de Información Geográfica
Capítulo 8
Bases de datos
Los sistemas gestores de bases de datos son la herramienta más adecuada para alma-
cenar los datos en un sistema de información debido a sus características de seguridad,
recuperación ante fallos, gestión centralizada, estandarización del lenguaje de consulta
y funcionalidad avanzada. En este capítulo analizaremos algunas ideas acerca de estos
importantes componentes de los SIG en la actualidad y veremos las principales alternativas
existentes, al tiempo que estudiaremos los fundamentos de bases de datos necesarios para
comprender la forma en que los datos espaciales se almacenan en las bases de datos actuales.
Asimismo, y para entender la situación presente y conocer las ventajas e inconvenientes
de los distintos métodos de almacenar la información en los SIG, veremos la evolución
de estos respecto a la arquitectura de almacenamiento de información.
8.1. Introducción
Las bases de datos son un elemento fundamental en el entorno informático hoy
en día y tienen aplicación en la práctica totalidad de campos. Concebidas con un
propósito general, son de utilidad para toda disciplina o área de aplicación en la
que exista una necesidad de gestionar datos, tanto más cuanto más voluminosos
sean estos. En nuestro ámbito particular de los SIG, los datos son cada día más
voluminosos, debido no solo a una mayor cantidad de información, sino también
a una mayor precisión en esta, la cual implica un mayor volumen de datos. Ade-
más, presentan otra serie de características (uso múltiple, necesidad de acceso
eficiente para análisis, necesidad de indexación, etc.), haciendo todas ellas que sea
recomendable el uso de bases de datos y tecnologías específicas para su manejo.
Pese a que, como veremos en este mismo capítulo, el uso de las bases de datos en
el ámbito SIG no ha sido siempre el actual, hoy en día representan una parte clave
para la gestión de los datos geográficos, en especial dentro del marco de proyectos de
cierta envergadura. Aunque la realidad es que todavía se efectúa mucho trabajo SIG
sin emplear bases de datos (y las aplicaciones SIG así lo permiten, no siendo estric-
tamente necesario disponer de una base de datos para almacenar la información),
la naturaleza propia de los proyectos SIG y la progresiva implantación de los SIG a
niveles más allá del uso personal (por ejemplo, SIG corporativos o Infraestructuras
de Datos Espaciales, acerca de las cuales se hablará en la parte VI dedicada al
204 Sistemas de Información Geográfica
factor organizativo) traen ambas consigo un uso cada vez mayor de las bases de
datos, y por tanto una mayor necesidad de conocer el funcionamiento de estas.
comunicación igual que implique, ente otras cosas, un uso compartido y conveniente-
mente coordinado de ellos. En otras palabras, los datos también tienen ese carácter
multidisciplinar y deben dejar de verse como algo propio de un uso particular, para
concebirse como un conjunto global del que se benefician muy diversos usuarios.
Establecer un uso compartido de los datos en una situación como la anterior
no parece difícil, ya que simplemente se trata de dos profesionales que realizan
tareas relacionadas y que, de un modo u otro, van a tener un contacto directo. El
gestor forestal puede sencillamente dar una copia de sus datos al ingeniero y este
podrá trabajar después con ellos de forma independiente. Aunque los datos con
que trabajen son inicialmente los mismos, en realidad esta práctica da lugar son
dos copias aisladas que constituyen dos universos distintos.
La situación real, sin embargo, es habitualmente mucho más compleja, y utilizar
un esquema de colaboración como el anterior puede ser imposible, carecer por
completo de sentido, o tener un buen número de consecuencias negativas. A medida
que aumenta el número de usuarios, resulta menos recomendable que cada uno
trabaje con sus propios datos y se los hagan llegar entre ellos a medida que los
necesitan (una realidad que, desgraciadamente, se presenta con más frecuencia
de lo recomendable). No debe olvidarse que un conjunto más amplio de usuarios
que trabajan de esta forma y son ellos mismos quienes gestionan sus propios datos,
implica directamente un número también más elevado de aplicaciones informáticas
y de formatos de archivo, complicando enormemente el trabajo coordinado en
cuanto el equipo tiene un tamaño medio.
Es probable además que existan usuarios dentro de una misma organización
(por ejemplo, un organismo público) que aunque requieran para su trabajo datos
similares, no tengan contacto alguno entre sí. Aunque los usuarios sean indepen-
dientes, sus datos no lo han de ser necesariamente, y en una situación ideal deberían
acudir a un repositorio único de datos del que cada cual tomaría lo necesario, en
lugar de basar su trabajo en un conjunto de datos fragmentado y difícil de gestionar.
Pensemos en un dato que pueda ser de interés a varios usuarios, como por
ejemplo una capa de vías de comunicación. A nuestro gestor forestal le será de
interés para, por ejemplo, saber qué medios de acceso existen en caso de tener
que hacer frente a un incendio. Lo más relevante de esas vías será su trazado, es
decir su geometría, y tal vez el tipo de vía de que se trata, para poder conocer la
velocidad a la que se pueden desplazar los medios de extinción. Otros usuarios, por
su parte, pueden necesitar parámetros distintos como el volumen de tráfico medio
de cada vía. Si todos ellos tienen una capa de vías con los parámetros asociados
que necesitan para su trabajo, nos encontramos con una innecesaria redundancia
de la componente espacial (las geometrías), y una dispersión de la componente
temática, que resultaría más conveniente mantenerla agrupada.
Pensemos ahora que el gestor forestal detecta un error en el trazado de una de las
vías y lo corrige. Esa corrección no estará disponible para los restantes usuarios, que
pueden a su vez efectuar modificaciones similares que no redundarán en una mayor
206 Sistemas de Información Geográfica
calidad de los datos con los que trabaja el gestor forestal, ya que, pese a utilizar datos
similares, trabaja con su propio conjunto de datos. Incluso si en algún momento to-
dos estos usuarios deciden poner en común sus datos y unirlos, esta operación puede
ser muy compleja o incluso, como sucede frecuentemente, imposible de realizar. Por
su parte, otros usuarios pueden añadir una nueva variable temática, como por ejem-
plo un índice de siniestralidad de la vía, el cual, si bien tal vez no resulte de utilidad
inmediata para muchos usuarios, en un futuro sí pudiera serlo. Una vez más, estos
nuevos datos no quedan a disposición del resto de usuarios, y en caso de serlo, no lo
hacen en conjunto con datos similares, sino como un dato aislado de los restantes.
En definitiva, es complejo gestionar de forma adecuada los datos en el momento
en que estos alcanzan un ámbito más allá de lo personal, y las prácticas más
habituales basadas en una gestión «manual» de un conjunto de ficheros no son
una opción adecuada. La solución para lograr esa necesaria gestión centralizada
de los datos son las bases de datos y también, como veremos más adelante, los
sistemas gestores de bases de datos, que representan la interfaz entre las bases de
datos y los distintos usuarios.
Red Relacional
Fecha Código Ruta
Mantenimiento
01/10/01 24 I-95
15/12/01 23 I-495 Clave: 24
Pavimento rígido Pavimento flexible 17/03/02 24 I-66
Nombre actividad Fecha Ruta
23 Parcheado
Sellante de silicona Sellante asfáltico
24 Asfaltado
25 Sellado de grietas
Código actividad
Nombre actividad
Unidad de producción
Producción diaria media
Figura 8.1: Comparación entre algunos modelos de base de datos más frecuentes
(adaptado de [109]).
de datos valores más complejos. Esto es de especial interés en el caso de los SIG, ya
que permite utilizar geometrías como un tipo de datos más, con la utilidad que esto
tiene a la hora de almacenar datos espaciales. El esquema de la relación se recoge
en la primera fila de la tabla, conocida como cabecera. El número de filas de la tabla
sin contar la cabecera (es decir, el número de tuplas) se conoce como cardinalidad.
Las relaciones son, por tanto, un conjunto de tuplas asociadas a un esquema. En
una relación, tanto el orden de las filas como el de las columnas son irrelevantes (ex-
ceptuando la cabecera, que no es un tupla como tal, sino que define el esquema como
hemos visto), pero es importante que cada atributo sea del tipo correspondiente
a la columna a la que pertenece. Es decir, que sea coherente con el esquema.
El cuadro 8.1 muestra un resumen de algunas de las equivalencias entre la
terminología habitual y la específica del modelo relacional. En la figura 8.2 puede
verse un esquema de los elementos fundamentales del modelo relacional.
Atributo (columna)
A1 A2 ... A3 Cabecera
Relación
(tabla) Tupla (fila)
Una forma abreviada de definir las relaciones que forman parte de una base de
datos es mediante su nombre y su esquema expresado como una lista de los atri-
butos que lo constituyen. Por ejemplo, podemos definir una relación denominada
PERSONAS como
Una base de datos contiene normalmente más de una tabla, ya que suelen ser
muchos los tipos de datos a almacenar y resulta conveniente dividirlos en distintas
tablas. Además de las relaciones que la tabla en sí implica, es necesario definir relacio-
nes entre las distintas tablas, y para ello se emplean los denominados atributos clave.
Un atributo clave es aquel que tiene valor único para cada tupla, pudiendo servir pa-
ra representar a esta plenamente. Por ejemplo, en una tabla con nombres de personas
e información adicional sobre ellas según el esquema anterior, los nombres no pueden
ser la clave primaria, ya que puede haber dos personas con un mismo nombre. El nú-
mero de su Documento Nacional de Identidad, sin embargo, sí que puede servir como
atributo clave. Además de su unicidad, una clave debe ser invariable, identificando
la misma tupla a lo largo del tiempo. Un esquema de relación puede contener varios
atributos clave, que se conocen como claves candidatas. Normalmente, de estas se eli-
ge una como representante principal de las tuplas, y se conoce como clave primaria
Por convención, las claves se escriben subrayadas al definir el esquema de la
tabla, de tal modo que el de la tabla PERSONAS quedaría de la siguiente forma:
Si no existe ningún atributo que cumpla los requisitos para ser utilizado como
clave, este puede incorporarse al esquema de la relación, añadiendo por ejemplo un
nuevo atributo con un código arbitrario. Un ejemplo de esto lo podemos encontrar
en el cuadro 8.2, donde se incorpora un atributo que hace la función de clave a una
tabla con información sobre personas pero que no contiene el DNI de estas entre
esa información y, por tanto, carece de un atributo adecuado para servir de clave.
En la definición de clave cabe también la presencia de claves compuestas, es
decir, formadas por varios atributos cuya combinación es única para cada tupla. No
obstante, la utilización de claves simples es preferible generalmente, ya que simpli-
fica gran parte de las operaciones en las que la presencia de una clave es necesaria.
Cuando trabajamos con datos espaciales, es habitual emplear la componente
espacial como clave, ya que esta suele ser única. En el caso de almacenar informa-
ción sobre ciudades, con los nombres sucede de forma similar a lo visto para el caso
de personas, ya que existen ciudades con el mismo nombre en distintos lugares. La
localización de estas, sin embargo, es única, ya que no puede haber dos ciudades
simultáneamente en el mismo lugar.
El empleo de estas claves permite relacionar tablas entre sí, siempre que estas
compartan algún atributo común. Por ejemplo, pensemos en una base de datos
que contenga la tabla anterior y junto a esta la tabla mostrada en el cuadro 8.3.
Es decir, la base de datos contiene información sobre personas y sobre ciudades.
Es sencillo ver que puede vincularse una tabla a la otra a través del atributo que
contiene el nombre de la ciudad. Nótese que este atributo no tiene el mismo nombre
en ambas tablas, y que, mientras que en una de ellas representa la clave primaria2 ,
2
Pese a que se ha comentado que el nombre de la ciudad puede no ser adecuado como clave, en
212 Sistemas de Información Geográfica
a)
b)
Cuadro 8.2: Adición de un campo para crear una clave. La tabla a) contiene un atributo
único (DNI). La tabla b) no contiene un atributo único entre sus datos, pero se añade el
campo ID con un código arbitrario que puede ser empleado como clave. El nombre en este
caso no sirve como atributo único, ya que hay dos personas en la tabla con el mismo nombre.
en la otra no puede serlo pues existen nombres de ciudades repetidos. Pese a ello,
este atributo nos permite establecer una relación entre las tablas3 , que podríamos
denominar «nacido en». A cada tupla de la primera tabla, que representa a una
persona dada, podemos vincularla con una de la segunda tabla, que representa
este caso sí puede serlo debido a las pocas filas que contiene la tabla, por lo que, en aras de la simpli-
cidad, lo utilizaremos asumiendo que no van a existir en la tabla dos ciudades con el mismo nombre.
3
Nótese que estamos empleando aquí el término relación para referirnos al vínculo entre
tablas, pero que este término también se emplea para referirse a las propias tablas, lo cual puede
dar lugar a confusiones. Para evitarlo, emplearemos el término tabla para referirnos a estas, y
mediante los términos relación o interrelación haremos a partir de ahora únicamente referencia
a esos vínculos que permiten enlazar varias de dichas tablas.
Bases de datos 213
una ciudad en particular, ya que toda persona ha nacido en una ciudad y gracias
al atributo CIUDAD podemos saber exactamente cuál es dicha ciudad.
Las interrelaciones entre tablas pueden ser de distintos tipos en función del nú-
mero de elementos distintos que se vinculan de cada tabla. En nuestra relación «vive
en», una persona puede vivir en una única ciudad, mientras que una ciudad puede te-
ner muchas personas viviendo en ella. Es decir, cada tupla de la tabla PERSONAS se re-
laciona con una única de la tabla CIUDADES, y cada tupla de esta última se relaciona
con una o varias de la primera. Este tipo de relación se conoce como de uno a muchos.
Existen otros dos tipos de relaciones además de esta: las denominadas de uno
a uno y las de muchos a muchos. Un ejemplo de relación de uno a uno podrían
ser «casado con», que estableceríamos entre la tabla PERSONAS y ella misma (las
dos tablas implicadas no han de ser necesariamente distintas). Cada persona
puede estar casada únicamente con otra, por lo que la relación es de uno con uno,
relacionándose una tupla con tan solo otra distinta, y no con varias.
Es importante reseñar que en algunas relaciones como «nacido en» todos los
elementos de una o de las dos tablas se encuentran vinculados de algún modo a través
de la relación, mientras que en otros no es así necesariamente. Así, todas las personas
han nacido en alguna ciudad, y estarán relacionadas con la correspondiente tupla
en la tabla CIUDADES, pero no todas las personas están necesariamente casadas.
Un ejemplo de relación muchos a muchos la podemos plantear si contamos
en nuestra base de datos con, por ejemplo, una tabla con empresas, entre cuya
información se incluya una lista de las ciudades en las que cada empresa tiene
sede. Una empresa puede tener sedes en distintas ciudades, y una ciudad puede
acoger a varias empresas, con lo que tanto ciudades como empresas pueden estar
vinculadas a más de una tupla en la otra tabla.
telefónica, puede ser empleada desde un SIG para crear un mapa que muestre la
densidad de usuarios o también desde una aplicación que genere un listín telefónico,
o bien desde una aplicación en una página Web que permita localizar el número
de teléfono de una persona concreta. Cada una de estas aplicaciones realiza un
trabajo distinto, pero todas ellas utilizan la misma base de datos. El SGBD debe
proporcionar a todos ellos la metodología adecuada para extraer del conjunto de
datos completo cuanto sea necesario en cada caso.
Además, el SGBD es la herramienta utilizada no solo por quienes aprovechan
los datos, sino también por aquellos que se han de encargar de la propia gestión y
mantenimiento de la base de datos. Administrar una base de datos puede suponer
una tarea altamente compleja, por lo que el SGBD debe proveer los útiles necesarios
para llevar a cabo ese mantenimiento.
Para ser de verdadera utilidad y responder a todas las necesidades que pueden
plantearse en relación con la base de datos, un SGBD debe perseguir los siguientes
objetivos:
Acceso transparente a los datos. La base de datos ha de poder accederse
de forma transparente, sin que sea necesario para el usuario del SGBD
preocuparse por aspectos internos relativos a la estructura de esta u otras
características. Esto significa que, por ejemplo, si queremos recuperar un regis-
tro de la base de datos, debemos poder hacerlo sin necesidad de saber si dicha
base de datos está almacenada en un único archivo o varios, o si el registro que
pretendemos recuperar está almacenado a su vez de uno u otro modo. Así, el
SGBD debe crear una abstracción de los datos que haga el trabajo con estos
más sencillo, ocultando aspectos que no sean relevantes para dicho trabajo.
Procedimientos como las consultas que veremos en el capítulo 11 se realizan
a través del SGBD, que es quien se encarga de interpretar dichas consultas,
aplicarlas sobre la base de datos y devolver el resultado correspondiente.
El SIG no accede a los datos, sino que se comunica con el SGBD y deja en
manos de este el proceso de consulta en sí.
Protección de los datos. Si la base de datos almacena información sensible,
el SGBD debe controlar el acceso a esta, restringiendo el acceso cuando corres-
ponda (por ejemplo, estableciendo distintos permisos de acceso para distintos
tipos de usuarios) e implementando los mecanismos de protección necesarios.
Eficiencia. Acceder a los datos no es suficiente en la mayoría de los casos,
sino que se requiere un acceso eficiente. El SGBD debe ser capaz de ges-
tionar de forma fluida grandes volúmenes de datos o de operaciones (por
ejemplo, muchos usuarios accediendo simultáneamente), de modo que dé
una respuesta rápida a las peticiones de los usuarios de la base de datos.
Gestión de transacciones. Las operaciones sobre la base de datos tales
como la adición o borrado de un registro se realizan mediante transacciones.
Una transacción es un conjunto de operaciones realizadas por un usuario
sobre la base de datos como una única unidad de trabajo, de forma indivisi-
Bases de datos 215
Base de Datos
SGBD
Figura 8.3: Representación esquemática del papel de un Sistema Gestor de Base de Datos.
ser el número de serie). La entidad puede tener sentido físico o bien ser una idea
abstracta, como un tipo de deporte, una clase de música o una palabra.
Una entidad se describe mediante una serie de características o atributos, que
son las que definen su naturaleza y sus propiedades. Una colección de entidades es
un conjunto de entidades distintas (que representan a objetos distintos), las cuales
comparten unos atributos comunes. Por ejemplo, un conjunto de ordenadores de
los cuales se conocen los atributos modelo, marca y procesador.
Por su parte, una relación expresa la dependencia existente entre entidades y
permite la asociación de estas. No resulta difícil ver que estos conceptos —entidad,
atributos y relación— guardan un notable paralelismo con las ideas del modelo
relacional que ya conocemos. Así, y aunque no resulte por completo inmediato, es
sencillo traducir un modelo entidad-relación (conceptual) a un modelo relacional,
que constituye ya un modelo aplicado a un tipo particular de base de datos. Por
ello, el modelo E–R es una herramienta potente para el diseño lógico de la base
de datos, especialmente si esta utiliza el modelo relacional.
Para desarrollar el diseño conceptual de una base de datos siguiendo el modelo
E–R, estos son lo pasos principales:
Partimos de una descripción textual del problema o sistema que queremos
recoger. Esta descripción contiene los requisitos necesarios y ha de formular
la pregunta a la que queremos que la base de datos dé respuesta. Para
nuestro ejemplo con datos sobre personas y ciudades, el problema podríamos
formularlo como «¿qué personas han nacido en cada ciudad?»4 .
Se toman los verbos y los sustantivos de la descripción textual. Los sustan-
tivos son posibles entidades o atributos, mientras que los verbos son posibles
relaciones. En nuestro caso, «persona» y «ciudad» serán entidades y «nacido
en» una relación.
Se analizan las frases y determina la cardinalidad de las relaciones y otros
detalles.
El modelo así creado se expresa mediante un diagrama en el que las entidades
se representan como cajas rectangulares, las relaciones mediante rombos y los
atributos en círculos o elipses, todos ellos con sus correspondientes nombres en
el interior. Cuando un atributo es un identificador, se representa con su nombre
subrayado, del mismo modo que en la definición de esquemas que ya vimos an-
teriormente (Figura 8.4). Si el número de atributos es elevado o el diagrama es
complejo por existir gran cantidad de tablas e interrelaciones, pueden omitirse los
atributos para una mayor legibilidad, describiéndose en un documento adicional.
Como ejemplo de lo anterior, la información sobre personas y ciudades que
4
Nótese que, aunque por meras razones didácticas hemos presentado en el capítulo las tablas
correspondientes a personas y ciudades antes de abordar lo relativo al modelos E–R y el diseño de
la base de datos, este modelo E–R es previo a la implementación de la base de datos, y las tablas
correspondientes al modelo relacional son solo una implementación práctica de dicho esquema,
en este caso según los requisitos de una base de datos que utiliza dicho modelo relacional
218 Sistemas de Información Geográfica
Entidad Relación
Atributo Identificador
venimos manejando, así como la relación «nacido en» existente entre ambas, se
expresarían según el modelo entidad-relación con un diagrama tal como el mostrado
en la figura 8.5.
Ciudad
Nombre
DNI N:1
Edad
Superficie
Nombre
Cuadro 8.4: La información de las tablas PERSONAS y CIUDADES puede recogerse en una
única tabla como la mostrada.
usuarios. Si, siguiendo el enfoque más habitual, optamos por crear una base de
datos según el modelo relacional, esto implica la creación de las correspondientes
relaciones y los esquemas asociados a cada una de ellas.
La tablas que definamos en la base de datos pueden tener consecuencias directas
sobre el uso de esta, afectando a aspectos como el rendimiento de las operacio-
nes que posteriormente se lleven a cabo o al volumen de datos total necesario.
Por ejemplo, nuestra base de datos con dos tablas, PERSONAS y CIUDADES, puede
implementarse utilizando únicamente una tabla como la mostrada en el cuadro
8.4. Esta tabla contiene la misma información que las dos tablas anteriores, y en
principio permite realizar operaciones similares. Si quisiéramos saber la población
de la ciudad donde ha nacido una persona en concreto, podríamos hacerlo de igual
modo con independencia de cuál de las estructuras mostradas tenga la base de
datos. En un caso deberemos acudir a dos tablas y una interrelación entre ellas,
mientras que en el otro solo es necesario emplear una tabla, la única que por otra
parte contiene nuestra base de datos.
Aunque la funcionalidad sea la misma, el uso de una única tabla tiene efectos
poco deseados que se advierten rápidamente, como por ejemplo la redundancia de
datos. La población y superficie de Madrid aparecen repetidos en dos ocasiones, y
aparecerían más veces si hubiera en la tabla PERSONAS más tuplas correspondientes
a individuos nacidos en esta ciudad. De igual modo sucedería con otras ciudades. En
el esquema basado en dos tablas, sin embargo, estos datos aparecen en una única oca-
sión y no dependen del número de personas de cada ciudad cuyos datos aparecen en
la base de datos. En una base de datos de pequeñas dimensiones como la que utiliza-
mos de ejemplo, esta circunstancia puede parecer poco relevante, pero si trabajamos
con millones de registros en la tabla PERSONAS la diferencia es realmente importante.
El concepto de normalización de una base de datos tiene relación con lo ante-
rior. Aunque no se entrará en detalles por exceder el alcance de este texto, puede
encontrarse más información en [113].
Otro aspecto a tener en cuenta en el diseño físico de la tabla es elegir nombres
adecuados para los atributos y las tablas. Los nombres deben ser inequívocos y dar
una idea clara de la información que contienen, y un usuario debe poder identificar
sin dificultades qué tablas y atributos son aquellos a los que debe acudir para
efectuar una consulta y dónde se encuentra la información que busca. El atributo
CIUDAD en la tabla PERSONAS, por ejemplo, cumple sin problemas su papel a la hora
de establecer la relación entre esta tabla y la que recoge los datos de las distintas
ciudades, pero si buscamos exclusivamente información sobre las personas, no es
completamente preciso, ya que no aclara si se trata de la ciudad en la que una persona
ha nacido o en la que habita. Siempre que pueda existir alguna duda razonable
a la hora de interpretar el contenido de una tabla, debe intentarse solventar esta
mediante el uso de nombres claros y concisos. Establecer una sistemática a la hora
de nombrar atributos y respetarla a lo largo de todo el conjunto de tablas de una
base de datos hará más fácil para los usuarios la comprensión de esta. Por ejemplo,
220 Sistemas de Información Geográfica
posibilidades de estas respecta), veremos las distintas etapas que podemos encontrar
a lo largo de la historia de los SIG en lo referente a su integración con bases de datos,
para de este modo comprender los diversas soluciones que han ido apareciendo.
Arquitectura dual
SGBD
Subsistema Subsistema
datos no espaciales datos espaciales
A1 A2 ... A3
Figura 8.6: Arquitectura dual con subsistemas distintos para el manejo de datos
espaciales y no espaciales.
Aunque una parte importante del SIG descansa ya sobre un SGBD, otra sigue
presentando muchas de las deficiencias que caracterizaban a la primera generación,
y constituyendo por tanto un punto débil en lo que a gestión de datos se refiere.
Mientras que la componente temática disfruta de las ventajas de usar un SGBD, la
componente espacial no goza aún de las ventajas que una base de datos provee, y
existe una cierta descompensación que limita las posibilidades y hace más complejo
el desarrollo del sistema.
224 Sistemas de Información Geográfica
Arquitectura en capas
La otra forma de aprovechar una base de datos relacional para su uso dentro
de un SIG consiste en incorporar toda la información dentro de la base de datos,
incluyendo la de corte espacial, buscando la manera más adecuada de llevar esto
a cabo pese a las limitaciones que la propia base de datos presenta en este caso.
Asumiendo que una base de datos relacional en su concepto tradicional no esta
diseñada para contener objetos complejos tales como geometrías o imágenes, y que,
especialmente, el SGBD correspondiente no presenta las mismas funcionalidades
y la misma potencia en el manejo de este tipo de datos que en el de tipos de
dato estándar (valores numéricos, cadenas de texto, fechas, etc.), es posible, sin
embargo, plantear soluciones que permitan llevar toda la información de un SIG
a una base de datos y poder gestionarla por completo a través de un SGBD, con
las ventajas que ello conlleva, y que ya conocemos.
Dos son las alternativas existentes: un almacenamiento transparente y un alma-
cenamiento opaco. Ambos se distinguen en la forma de almacenar la información y
también las operaciones sobre los datos, que vienen condicionadas por la estrategia
empleada para el almacenamiento de estos.
En el almacenamiento transparente se emplean los propios tipos de datos del
SGBD, y las operaciones se implementan en el lenguaje de consulta de este. Es decir,
se intenta implementar toda la funcionalidad deseada empleando los elementos bási-
cos del SGBD de la misma forma que haríamos si los datos a almacenar no fueran de
tipo espacial. La componente espacial de los datos se almacena empleando tuplas, va-
riando según la implementación la manera en que esto se lleva a cabo. Una geometría
como tal no se ajusta a ningún tipo básico de datos, pero en realidad esa geometría
no es sino un conjunto de coordenadas que definen una serie de puntos, y dichas coor-
denadas sí que son un tipo básico susceptible de almacenarse en un SGBD común.
En el almacenamiento opaco se emplean objetos binarios para almacenar la
información y las operaciones se implementan externamente en la herramienta
SIG. Al no utilizar los tipos de datos del SGBD, tampoco pueden emplearse
las operaciones de consulta de este, y es necesario implementar los algoritmos
correspondientes en el SIG.
La ventaja más directa de utilizar una arquitectura en capas, ya sea mediante
un almacenamiento transparente o uno opaco, es la facilidad para reutilizar un
SGBD existente. Con poco esfuerzo pueden incorporarse los datos espaciales a
un SGBD estándar, existiendo en la actualidad numerosas alternativas sobrada-
mente probadas y con una amplia gama de funcionalidades. Esta es la opción más
empleada hoy en día en los SIG, principalmente por esa sencillez, que permite
una conexión sin muchas dificultades de una aplicación SIG con la mayoría de los
SGBD de uso habitual fuera del ámbito SIG.
Existen, no obstante, inconvenientes y aspectos mejorables, achacables a la
nula especialización de los SGBD para el manejo de información espacial. En el caso
Bases de datos 225
El analisis
Capítulo 9
9.1. Introducción
El análisis de los datos geográficos es, junto con la generación cartográfica,
una de las tareas fundamentales sin las cuales el concepto de SIG no alcanza su
verdadero significado. La información que manejamos en un SIG es a su vez una
fuente de nueva información, y solo es a través de su análisis como podemos obtener
esta última y sacar partido de ella.
Los datos espaciales contienen mucha más información de la que a primera
vista nos muestran. Todo dato espacial es el resultado de un proceso localizado
espacialmente, el cual podemos conocer en mayor medida si sabemos «leer» la
información subyacente que dicho dato contiene. Los cursos de los ríos informan
sobre la estructura del terreno o la litología existente. Los patrones en los que se
disponen los nidos de una especie de ave dicen mucho acerca del comportamiento
de esta. Y así, muchos otros ejemplos que pueden analizarse según alguna o varias
de las formulaciones que veremos a lo largo de esta parte del libro. Lo importante
es conocer qué formas hay de de convertir la información espacial en información
sobre un proceso dado, o cómo extraer parámetros de utilidad a partir de datos
espaciales relacionados con nuestro área de estudio.
Ahora que ya conocemos cómo son los datos que podemos incorporar a un SIG,
es el momento de ver cómo los SIG constituyen herramientas de gran potencia
para estudiar dichos datos. El análisis de estos datos geográficos ha cobrado una
nueva dimensión desde la aparición de los SIG, surgiendo nuevos planteamientos y
mejorándose los ya existentes. A lo largo de toda su historia, el análisis ha sido uno
de los elementos más importantes de un SIG, y a día de hoy existen formulaciones
que cubren casi todo el abanico posible de necesidades. Dados unos datos espaciales
230 Sistemas de Información Geográfica
para dar respuesta a dichos interrogantes, ya que estas respuestas quedan muchas
veces patentes con el simple análisis visual. Considerando la gran variedad de formas
en que los datos espaciales pueden representarse dentro de un SIG, ello hace que la
visualización sea de por sí una componente de los SIG de gran interés para el análisis.
Asimismo, mediante las capacidades de superposición de capas y la visualiza-
ción de dicha superposición se pueden tratar en un SIG las cuestiones relativas a la
asociación entre distintas variables espaciales, y las que conciernen a la variación
temporal de estas variables pueden estudiarse con conjuntos de representacio-
nes sucesivas a modo de «instantáneas». También en esto las funcionalidades de
visualización de la información espacial son herramientas de indudable utilidad.
A lo anterior deben sumarse los distintos algoritmos de análisis geográfico, que
iremos viendo a lo largo de los próximos capítulos, y que aprovechan la arquitectura
particular de un SIG para explotar en profundidad la información espacial.
información que contienen los datos espaciales. Es el tipo de análisis básico que
usamos cuando trabajamos con cartografía clásica, y nos proporciona informa-
ción inmediata a partir de una simple observación de los datos. La propiedad
fundamental que empleamos es la posición de cada elemento geográfico.
Este tipo de operaciones da respuestas a preguntas de tipo
¿Qué tipo de suelo encontramos en una coordenada (x,y) dada?
¿Dónde se encuentra la localidad x?
Son, como puede verse, análisis que se pueden resolver simplemente «miran-
do» al mapa que contiene la información de partida, y por ello constituyen
la forma más sencilla de análisis espacial.
Puesto que en la información geográfica dentro de un SIG todo elemento
tiene asociadas unas propiedades en forma de valores, también podemos
consultar estos valores. Así, podemos plantear consultas no necesariamente
relacionadas con la componente espacial, tales como
¿Cuáles son las diez ciudades españolas con mayor población?
¿Qué pueblos de España comienzan por la letra A?
Combinar este tipo de consultas con las puramente espaciales constituye
un análisis sencillo pero fundamental dentro de los posibles en un SIG, y
representa una de las utilidades más frecuentemente empleadas de estos en
el trabajo diario.
Análisis topológico. Las consultas hechas a las capas de datos espaciales
pueden tener relación no solo con su posición sino con la relación con otros
elementos de la misma capa. La existencia de topología (ver 5.3.2) puede
emplearse para la realización de consultas que respondan a cuestiones como,
entre otras, las siguientes:
¿Cómo llegar desde mi posición actual hasta una coordenada concreta
por la red viaria existente?
¿Qué comunidades autónomas comparten límite con Madrid?
Medición. La existencia de una referencia espacial para cada uno de los
elementos con los que trabajamos en el análisis dentro de un SIG hace que
podamos cuantificar otra serie de parámetros también espaciales. El más
básico de estos parámetros es la distancia, que puede ser una distancia simple
entre dos puntos dados o bien una distancia entre elementos complejos tales
como polígonos o líneas, o combinaciones de ellos.
Además de la distancia podemos medir otras propiedades tales como
Área
Perímetro
Longitud de un recorrido no lineal
Factores de forma
Dentro de este grupo incluimos parámetros más elaborados tales como
pendientes, o índices diversos que derivan todos ellos de medidas sencillas
similares a las anteriores. Estas medidas no tiene que ser necesariamente
Introducción. ¿Qué puedo hacer con un SIG? 235
9.5. Resumen
En líneas generales, todo cuanto hacemos con la información geográfica implica
algún tipo de análisis. Desde una mera consulta a un modelo muy complejo, este
análisis explora dicha información y permite obtener resultados que descubren
otros tipos de información subyacente.
Existe una gran variedad de procesos de análisis espacial. Estos pueden tomar
datos espaciales de diversas clases y generar resultados también muy diversos, por
lo que su clasificación es compleja. Algunos de los más característicos de cuantos
podemos llevar a cabo dentro de un SIG son aquellos que sacan partido de la forma
en que este maneja las distintas capas de información. Por ejemplo, la superpo-
sición de capas o el análisis combinado de distintos factores como herramienta de
apoyo en la toma de decisiones. La creación de zonas de influencia es también uno
de los análisis más habituales, englobado dentro de un conjunto de procesos de
transformación de datos geográficos.
En este contexto, deben considerarse los SIG como herramientas que van a
a permitir una mejor formulación de las cuestiones geográficas, y que del mismo
modo van a ayudar en la búsqueda de respuestas a estas.
Capítulo 10
Para proceder al análisis de los datos espaciales, deben conocerse antes las particu-
laridades de estos. Algunas características propias de los datos espaciales hacen que, entre
otras cosas, no sean aplicables algunos elementos de la estadística no espacial. Otras
condicionan buena parte de las formulaciones que operan sobre ellos, y que iremos viendo
en los sucesivos capítulos. Por tanto, abordar el estudio de estas formulaciones no se ha de
hacer sin antes tratar con algo más de detalle las propiedades inherentes al dato espacial
en lo que a su disposición para el análisis respecta.
Junto a esto, se presentan en este capítulo algunos conceptos fundamentales sobre
geometría del plano y el espacio, y sobre las distintas relaciones entre entidades espaciales.
Todos ellos son la base para crear análisis más complejos sobre datos espaciales. Unas
nociones básicas de matemáticas son necesarias para poder comprender estas ideas.
10.1. Introducción
Trabajar con datos espaciales tiene una serie de implicaciones que han de
considerarse con detenimiento antes de llevar a cabo cualquier análisis. A lo largo
de esta parte del libro veremos formas muy distintas de analizar los datos espaciales
para obtener resultados de índole variada, y todas ellas tienen en común el hecho
de trabajar sobre este tipo particular de datos. Conocer en profundidad el dato
espacial es, por tanto, imprescindible, no solo en lo relativo a su forma, su manejo y
su almacenamiento —que ya fue visto en la parte correspondiente— sino también
en lo referente a su análisis y cómo ha de tratarse e interpretarse la información
que contiene —que lo veremos en el presente capítulo—.
Entendemos por dato espacial todo aquel que tiene asociada una referencia
geográfica, de tal modo que podemos localizar exactamente dónde sucede dentro de
un mapa [119]. Dentro de esta definición se incluyen datos de campos (superficies)
o datos asociados a objetos como puntos, líneas o polígonos. Es decir, todo cuanto
puede recogerse según los distintos modelos de representación que ya hemos visto
con anterioridad.
El objetivo de este capítulo es múltiple. Por una parte, presentar las principales
particularidades de los datos espaciales, así como la formas de tener estas en cuenta
a la hora del análisis. Por otra, estimular un correcto razonamiento espacial y un
entendimiento adecuado tanto de las limitaciones como de la potencialidad de
los datos espaciales como fuente del análisis geográfico. Y por último, presentar
240 Sistemas de Información Geográfica
algunos de los fundamentos teóricos sobre los cuales se crean después todas las me-
todologías de análisis, las estadísticas espaciales, y los algoritmos que se detallarán
en los capítulos sucesivos.
Estos fundamentos incluyen algunas nociones básicas sobre matemática del
plano y el espacio, y conceptos sobre las posibles relaciones existentes entre objetos
geográficos.
10.2.1. Escala
En el apartado 3.4 vimos con detalle el concepto de escala cartográfica, y cómo
este se aplica de igual modo a la representación y gestión dentro de un SIG. Existe,
además, otra forma de considerar la escala, y que resulta de especial interés para
los contenidos de esta parte: la escala de análisis.
A la hora de estudiar la información geográfica, podemos hacerlo a distintos
niveles y, dependiendo del nivel elegido, los resultados serán de una u otra na-
turaleza. Esto se manifiesta en las estructuras espaciales (véase más adelante en
esta misma sección), que condicionan los valores que se derivan de sus análisis
a través de las distintas formulaciones de análisis. Este hecho es fácil verlo con
algunos ejemplos, que nos permitirán comprobar cómo a distintas escalas los datos
geográficos tienen características distintas.
Por ejemplo, sea el conjunto de puntos de la figura 10.1. En el ejemplo a) se ve
que los puntos se agrupan en conglomerados en zonas concretas del espacio. Esto
Conceptos básicos para el análisis espacial 241
a) b)
Una situación distinta es la que sucede con los datos ráster, donde el tamaño
de celda está indirectamente condicionando una escala. La medición de áreas y
distancias se encuentra influida por el tamaño elegido. Del mismo modo que no
podemos recoger los detalles mínimos de una curva al utilizar una vara de medir
de mayor tamaño, en el caso de una capa ráster, todo aquello que suceda en una
escala inferior a la definida por el tamaño de celda queda ignorado. La espacial
resolución es, por tanto, un elemento directamente relacionado con los resultados
del análisis cuando se utilizan datos ráster.
244 Sistemas de Información Geográfica
Figura 10.5: Dos estructuras distintas con diferentes implicaciones a la hora del análisis
de los datos que representan
Por ejemplo, vemos que en el patrón b) los puntos se hallan más agrupados,
mientras que en el a) los puntos están distribuidos uniformemente a lo largo de
248 Sistemas de Información Geográfica
Podemos decir que existe una tendencia espacial cuando los valores de una
variable están relacionados con sus propias coordenadas geográficas. Por ejemplo,
existe una tendencia a que la temperatura disminuya conforme nos alejamos del
ecuador. Por ello, en un mapa de temperaturas para una región lo suficientemente
amplia, cabe esperar valores menores en el extremo más distante del ecuador.
El dato de localización geográfica plantea un contexto dentro del cual se sitúan
los restantes valores, en este caso, la temperatura observada. Esto hace que el
mismo valor de una variable no tenga el mismo significado cuando aparece en un
punto que cuando lo hace en otro. No es lo mismo un valor de temperatura de 40◦ C
en Madrid que en Oslo. El valor en sí es idéntico, pero su interpretación es distinta.
Conocer las tendencias existentes para una variable nos ayuda a comprender
mejor esta y analizarla de forma correcta. Si es posible cuantificar dicha tendencia,
resulta factible eliminar su influencia de los datos, de forma que estos ya no se
vean afectados por ella, o bien considerarla explícitamente como parte del análisis.
Las consecuencias de la existencia de tendencias son similares a las que se
derivan de la presencia de autocorrelación espacial, ya que invalidan el supuesto
de independencia de los datos.
Conceptos básicos para el análisis espacial 249
Figura 10.6: Representación del efecto borde y cómo este afecta en mayor o menor
medida en función de la escala de análisis. Las zonas en trazo continuo no se ven afectadas.
Las zonas en trazo punteado están afectadas de efecto de borde en diferente grado.
250 Sistemas de Información Geográfica
Figura 10.7: El valor recogido en una unidad puede interpretarse con distintos criterios.
a) Media de la celda. b) Valor en el punto medio.
n
1 X
Cx = (xi xi+1 )(xi yi+1 −xi+1 yi )
6A i=1
n
1 X
Cy = (yi yi+1 )(xi yi+1 −xi+1 yi ) (10.3.8)
6A i=1
254 Sistemas de Información Geográfica
La pertenencia o no del punto al polígono queda definida así en todos los casos,
salvo cuando el punto está en la propia frontera o bien la semirecta coincide en
algún tramo con el contorno, en cuyo caso resulta imposible el cálculo del número
de cortes (Figura 10.10).
dentro de la ciudad, no decimos «el parque al que quieres ir está contenido dentro
de un radio de 1,2 km» sino que diremos algo como «sí, está cerca, se puede llegar
andando». En nuestro pensamiento espacial y en el lenguaje que utilizamos para
expresarlo, no es necesaria la precisión cuantitativa, que sin embargo sí se requiere
para plantear otros modelos de relaciones. Entender las relaciones espaciales
cualitativas para poder implementarlas en una herramienta lógica como un SIG es
en esencia un problema de traducción entre un lenguaje natural y uno formal [134].
La forma en que los SIG incluyen las relaciones espaciales para sus propósitos
debe combinar todos estos enfoques con objeto de conseguir que el razonamiento
espacial pueda transmitirse de forma sencilla y lo más efectiva posible. Teniendo
en cuenta esto, autores como [135] argumentan que, en la actualidad, la falta de un
sistema de relaciones espaciales completo que dé respuesta a todas las necesidades
que se plantean, es uno de los principales escollos para un mayor desarrollo de la
disciplina de los SIG. El problema, no obstante, no presenta una solución sencilla,
ya que, como hemos visto, los criterios a aplicar pueden ser muy variados y las
ideas matemáticas han de combinarse igualmente con los elementos perceptivos
acerca de cómo estas relaciones se entienden y se interpretan [136].
Lo habitual dentro de un SIG es la conversión de los conceptos del lenguaje
natural (cualitativos) en elementos cuantitativos, de forma que estos pueden
después tratarse con las herramientas de algún sistema formal de relaciones. Este
planteamiento, aunque potente, puede no ser adecuado para según qué casos. El
futuro de los SIG pasa por ser capaz de manejar de forma integrada las relaciones
cualitativas, de forma que se aumente la usabilidad para aquellos usuarios que no
disponen de un conocimiento de los sistemas formales, pero pueden sin embargo
plantear cuestiones espaciales en el lenguaje habitual.
Es importante reseñar que las relaciones geográficas, sea cual sea el criterio
por el que se definan, no están condicionadas de forma alguna al tipo de almacena-
miento del dato espacial (vectorial, ráster, etc) u otras características arbitrarias
del mismo. Son, por el contrario, conceptos puramente teóricos sobre elementos
situados en el espacio, los cuales pueden aplicarse a cualquier objeto con indepen-
dencia de cómo este haya sido recogido. No obstante, la forma de almacenamiento
condiciona en cierta medida las relaciones existentes o, al menos, la forma en
que estas relaciones se incluyen en el propio almacenamiento. Así, para el caso
por ejemplo de una capa ráster, tenemos una estructura regular de elementos
relacionados entre sí de tal forma que son contiguos y están a una misma distancia.
Es decir, con una relación topológica y otra métrica que se mantienen constantes
para todos los elementos unitarios mediante los cuales se almacena la capa.
para combinar las geometrías y elementos de dos capas vectoriales según cómo sean
dichas relaciones entre ellas. De entre estas relaciones destacan los denominados
predicados espaciales, que son operaciones de tipo lógico que nos indican si entre
dos objetos geográficos existe o no un tipo de relación dada. Se consideran estos
objetos en R2 , es decir, como objetos planos.
La definición formal de estos predicados ha sido motivo de abundante estudio
desde la aparición de los SIG, en parte motivado por la mayor necesidad que de tal
formalismo se tiene si se pretende estructurar adecuadamente todas las operaciones
de análisis que un SIG puede contener.
Uno de los sistemas iniciales de predicados es el conocido como 4–Intersection
[137]. Según este modelo, la relación entre dos objetos A y B queda definida por
las intersecciones entre las fronteras (δA y δB) y los interiores (A y B) de estos. Se
tienen así cuatro intersecciones con las que se conforma una matriz que caracteriza
la relación existente.
!
A∩B A∩δB
=4 (A,B) = (10.4.1)
δA∩B δA∩δB
Para cada una de las cuatro intersecciones se estudia algún invariante to-
pológico, es decir, alguna propiedad que sea invariante a las transformaciones
topológicas. De entre ellas, lo más habitual es emplear el contenido, esto es, si la
región delimitada por la intersección esta vacía (∅) o no (¬∅).
Teniendo cuatro elementos y dos posibles valores para cada uno, existen un
total de 24 = 16 diferentes matrices con la forma anterior. De estas, ocho pueden
darse en un plano entre objetos bidimensionales con fronteras cerradas, cada uno
de los cuales define una región. Estas ocho relaciones son las mostradas en la figura
10.11, con sus matrices características correspondientes.
10.5. Resumen
Los datos espaciales presentan particularidades que tienen una gran impor-
tancia en los procesos de análisis. Entre estas, la existencia de una estructura,
la presencia de efectos de borde o los efectos de escala y derivados tales como el
denominado Problema de la Unidad de Área Modificable, son los más relevantes.
La autocorrelación espacial es otro de los elementos que siempre deben tenerse
en cuenta a la hora de estudiar los datos espaciales, pues condiciona los resultados
de los análisis según sea dicha autocorrelación.
Además de lo anterior, los distintos elementos con los que trabajamos en el
análisis espacial se relacionan entre sí. El estudio y clasificación de dichas relaciones
presenta alternativas diversas que tratan de recoger la totalidad de estas: relaciones
topológicas, relaciones de distancia, relaciones de orientación, etc. A esto ha de
sumarse la diferente naturaleza de las relaciones espaciales en el lenguaje habitual,
que es eminentemente cualitativa en lugar de la naturaleza cuantitativa de los
procesos que se implementan en un SIG.
Modelizar estas relaciones de forma correcta e integrar todos los puntos de vista
es importante para hacer de los SIG herramientas de análisis completas en las que
puedan expresarse de forma intuitiva y coherente todas las relaciones existentes.
262 Sistemas de Información Geográfica
Capítulo 11
En este capítulo comenzaremos a estudiar las formas de análisis de los datos espaciales,
tratando las consultas y operaciones relacionadas. Estas son operaciones sencillas que,
sin embargo, se encuentran entre las más frecuentes en el uso habitual de los SIG, pues
permiten explotar en primera instancia la información de las capas.
Al concluir el capítulo, se conocerán los tipos más comunes de consultas y la forma
de llevar estas a cabo, teniéndose así una primera herramienta para empezar a aprovechar
los datos espaciales.
Las consultas son un elemento habitual de las bases de datos, por lo que resulta nece-
sario conocer con detalle todo lo relativo a estas, detallado en el capítulo 8. Cuando dichas
bases de datos incluyen la componente espacial, hacen uso de las relaciones espaciales para
definir relaciones entre elementos. Estas fueron descritas en el capítulo 10, cuyo estudio
es necesario antes de abordar el del presente capítulo.
11.1. Introducción
El análisis más simple que podemos efectuar sobre una capa (o varias) de
información geográfica es la simple consulta de esta. Entendemos por consulta una
operación en la cual preguntamos a los datos geográficos algún tipo de cuestión
simple, generalmente basada en conceptos formales sencillos. Este tipo de análisis,
aunque no implica el uso de conceptos analíticos complejos, es uno de los elementos
clave de los SIG, pues es parte básica del empleo diario de estos.
En el contexto espacial, una consulta representa un uso similar al que damos
a un mapa clásico, cuando en base a este respondemos a preguntas como ¿qué
hay en la localización X? o ¿qué ríos pasan por la provincia Y? No obstante, no
debemos olvidar que los datos espaciales tienen dos componentes: una espacial
y otra temática. Preguntas como las anteriores hacen referencia a la componente
espacial, pero igualmente pueden efectuarse consultas que se apliquen sobre la parte
temática. Y más aún, pueden efectuarse consultas conjuntas que interroguen a los
datos geográficos acerca de los atributos espaciales y temáticos que estos contienen.
Las consultas se entienden en general como relativas a capas vectoriales, pues
son dicho modelo de representación y su estructura de datos los que mejor se adap-
tan a la forma particular de las consultas. En este capítulo veremos cómo trabajar
mayoritariamente con datos vectoriales, aunque también se harán referencias a
datos ráster, pues estos últimos contienen igualmente datos geográficos y pueden
consultarse y responder a preguntas como las formuladas anteriormente.
264 Sistemas de Información Geográfica
al punto que señalamos. Estos datos son una fracción particular del conjunto de
todos los contenidos en dicho mapa.
El resultado de una consulta en un SIG generalmente es lo que conocemos
como selección. De todos los registros de la tabla de datos, aquellos que cumplen el
criterio indicado se marcan como seleccionados, y posteriormente pueden utilizarse
únicamente estos como base de otro análisis, o simplemente el usuario puede ver
cuáles han sido los seleccionados para así obtener la respuesta a su consulta.
Como veremos más en detalle en las siguientes secciones, las consultas pueden
hacerse solo sobre la componente temática de los datos, sobre la espacial, o sobre
ambas. En cualquier caso, sabemos ya que estas en un SIG se hayan vinculadas, con
lo que el resultado de la consulta afecta a ambas. La selección se hace patente sobre
ambas componentes, con independencia de cuál de ellas haya sido la encargada de
aplicar el criterio de selección. En el entorno habitual de un SIG, con su interfaz
gráfica, tanto la tabla de atributos como la representación visual de la componente
espacial se ven afectadas por la realización de una consulta. La figura 11.1 muestra
gráficamente este hecho.
Esta presencia gráfica es importante dentro del entorno de los SIG, tanto para
mostrar el resultado de las consultas como para ayudar en la formulación de estas.
En contraste con el carácter textual de una base de datos, el empleo de dichas bases
de datos y la realización de consultas en un SIG incorpora una representación
gráfica que resulta esencial [45]
Junto con la selección de entidades dentro de una capa existente, una consulta
266 Sistemas de Información Geográfica
nos vale también para extraer información de una base de datos de acuerdo a
nuestras necesidades, y para crear posteriormente y a partir de dicha información
una nueva capa. Esta operación es útil cuando la base de datos de la que disponemos
es muy voluminosa y solo resulta de interés para nuestro trabajo una parte de ella.
Puede tratarse de una parte en el sentido espacial (la base de datos contiene datos
a nivel mundial y se quiere trabajar a nivel estatal), en el sentido temático (la base
de datos contiene mucha información de cada entidad y solo interesan algunos
campos), o en una combinación de ambas. Para extraer dicha parte y trabajar
únicamente con ella, utilizaremos una consulta.
Así, la selección de una serie de entidades dentro de una capa o la extracción
de dichas entidades de la base de datos para la creación de dicha capa son dos
aplicaciones habituales de las consultas que seguidamente veremos.
el crecimiento económico del ultimo año en cada país. Esta información se puede
adquirir, sin embargo, de forma sencilla en ese anuario estadístico que citamos.
Antes de la aparición de los SIG, la componente temática (el anuario estadístico)
y la espacial (el mapa político) iban por separado. Hoy en día, y gracias a los SIG, po-
demos trabajar con ellas de forma conjunta, pues es fácil ver que existe una relación
entre ambas. No obstante, en el ámbito informático se han desarrollado tecnologías
para trabajar con conjuntos de datos tales como las tablas de un anuario estadístico,
pues la componente espacial no siempre existe o bien no se utiliza, y es por estas
tecnologías por donde debemos comenzar a desarrollar todo lo relativo a consultas.
Por un momento, dejemos de lado la componente espacial de cada país, y
pensemos que solo conocemos de él algunas variables socio–económicas tales como
el PIB, la población, el idioma que se habla o el nombre de su moneda, tal y como
se recogen en la tabla de la figura 11.1
para saber qué países pertenecen a la Unión Económica Europea podríamos hacerlo
mediante el predicado MONEDA = ’Euro’.
Consultas de esta índole también pueden efectuarse si los datos geográficos
se basan en un modelo de datos ráster. En este caso, podemos de igual modo ver
qué celdas cumplen una condición dada como, por ejemplo, tener un valor mayor
que un valor predefinido. Sin embargo, este tipo de operaciones no se suelen ver
habitualmente como consultas, sino como operaciones de lo que se conoce como
álgebra de mapas, en particular una operación denominada reclasificación. Veremos
con detalle estas operaciones en el capitulo 14, enteramente dedicado a ellas.
Las consultas mediante expresiones condicionales pueden ser algo más com-
plejas que lo que hemos visto hasta ahora, ya que pueden hacer referencia a varios
campos. Por ejemplo, para responder a cuestiones como las siguientes:
¿Qué países de la zona euro tienen más de 40 millones de habitantes?
¿En qué países de habla inglesa aumentó la población durante el último año?
Para expresar esas consultas se han de incluir elementos de la denominada
lógica booleana 1 . Para entender de forma sencilla este concepto, podemos reescribir
las consultas anteriores de la siguiente manera:
¿Qué países tienen como moneda el euro y a la vez tienen más de 40 millones
de habitantes?
¿Que países hablan inglés y sufrieron un aumento de población durante el
último año?
La partícula y nos indica que realmente nuestra consulta se compone de dos
condiciones. Por ejemplo, en el primero de los casos se debe cumplir la condi-
ción Moneda = ’Euro’, y al mismo tiempo la condición POBLACION_ACTUAL >
40000000. La sintaxis habitual para expresar esto a la hora de formular la consul-
ta es emplear el termino inglés AND, de forma que tendríamos la expresión MONEDA
= ’Euro’ AND POBLACION_ACTUAL > 40000000.
Otros operadores lógicos que podemos emplear son el operador disyuntivo o
(OR) o el operador de negación (NOT). Añadiéndolos a las expresiones condicionales
podemos crear consultas más elaboradas para extraer la información que buscamos.
En realidad, formular una consulta de este tipo es buscar un subconjunto particular
(el formado por las entidades que quedarán seleccionadas) dentro de un conjunto
global (la capa geográfica). Por ello, es útil plantear estas operaciones lógicas
desde el punto de vista de la teoría de conjuntos, y hacer uso de los denominados
diagramas de Venn 2 , que muestran de forma gráfica y muy intuitiva el significado de
dichas operaciones. En la figura 11.2 pueden verse los diagramas correspondientes
a las operaciones que hemos visto hasta el momento.
Más adelante volveremos a encontrar esquemas similares a estos, en particular
al estudiar las operaciones de solape entre capas vectoriales, en el capítulo 18.
1
Denominada así por el matemático irlandés George Boole(1815, 1864)
2
John Venn (1834, 1923), un matemático inglés, fue el primero en proponer este tipo de
diagramas en 1880
Consultas y operaciones con bases de datos 269
ID TIPO_SUELO
1 3
2 1
3 3
4 3
5 2
Cuadro 11.1: Unas sencillas tablas para efectuar una unión en función de su campo
común TIPO_SUELO.
podemos decir que dentro de ese polígono el suelo es de tipo fluvisol y tiene dicha
aptitud, aunque en la tabla asociada no se encuentre directamente esta información.
Esta forma de proceder debe ser ya familiar para el lector, pues la unión se basa en el
uso de un atributo clave, que ya vimos en el capítulo 8 dedicado a las bases de datos.
Al efectuar una unión, pasamos la información de una tabla a la otra, en la
medida en que esto sea coherente con las coincidencias existentes entre ellas. El
resultado es una nueva tabla que extiende la tabla original, incorporando infor-
mación de otra tabla adicional. En el cuadro 11.2 puede verse la tabla resultante
de la anterior unión3 .
3
Esta tabla es la resultante de uno de los tipos de unión posibles, la denominada unión natural.
Otros tipos de unión para las mismas tablas de partida dan como resultado tablas distintas, aunque
no se usan con tanta frecuencia. La unión cartesiana genera una tabla que contiene todas las combi-
naciones posibles entre elementos de las dos tablas implicadas. En otros casos, la tabla generada pue-
de contener los dos campos utilizados como enlace, uno por cada tabla de las utilizadas en la unión
Consultas y operaciones con bases de datos 271
de que un usuario cualquiera pueda efectuar consultas sobre una base de datos,
formulando estas de una forma lógica y flexible.
Un lenguaje de consulta posee una sintaxis rígida, que lo asemeja a un lenguaje
de programación (de hecho, se trata de un lenguaje de programación como tal). No
obstante, la complejidad algorítmica inherente a la propia consulta queda oculta en
la expresión, asemejándose en ese sentido más a un lenguaje natural. Un lenguaje
de consulta no sirve para implementar algoritmos, sino que expresa de una forma
más natural (aunque con una sintaxis adecuada al entorno computacional en que
se encuentra) dichos algoritmos de consulta.
Dicho de otro modo, estos lenguajes de consulta van a expresar en lineas gene-
rales qué es lo que se quiere hacer, pero no cómo se debe hacer, al contrario que los
lenguajes de programación (tales como los que se emplean para programar, por ejem-
plo, un SIG), que permiten describir formalmente algoritmos y procedimientos4 .
El siguiente paso es, pues, estudiar cómo los lenguajes de consulta se incorpo-
ran a un SIG y la forma de utilizar estos. El lenguaje de consulta más extendido
para bases de datos relacionales, tanto dentro como fuera del ámbito SIG, es el
denominado SQL (acrónimo de Structured Query Language o Lenguaje de Consulta
Estructurado).
SELECT lista_de_columnas
FROM nombre_de_tabla
WHERE expresión_condicional
Lista_de_columnas es una lista con los nombres de los campos que nos interesa
incluir en la tabla resultante de la consulta, nombre_de_tabla es el nombre que
identifica la tabla de la que queremos tomar los datos, y expresión_condicional
un predicado que establece la condición que han de cumplir los registros a tomar.
Como vemos, no es muy distinto de lo que hemos visto hasta ahora, y simple-
mente es otra forma de plantear consultas, de modo similar a lo que conocemos.
La flexibilidad del lenguaje y la adición de funciones y nuevas ordenes permiten,
no obstante, expresar prácticamente cualquier consulta, por compleja que esta
sea, y extraer todo el potencial de la base de datos.
Sin animo de resultar un repaso exhaustivo a todos los elementos del lenguaje
(ello requeriría mucha más extensión que todo este capítulo), a continuación se
muestran algunos ejemplos de expresiones SQL explicados después en lenguaje
natural, para dar una idea de la forma y capacidades del lenguaje. Una vez más,
se anima al lector interesado a consultar las referencias propuestas para mayores
detalles. Para estos ejemplos utilizaremos la tabla de países cuya estructura ya
hemos introducido al comienzo de este capítulo.
SELECT *
FROM Paises
WHERE Moneda = ’Euro’ AND Poblacion_actual > 40000000
Esta consulta recupera todos aquellos registros en los que la población actual
supera los 40 millones y la moneda es el euro. El asterisco indica que, para cada
uno de estos registros, deben recuperarse todos los campos existentes. Se podría
formar una nueva tabla solo con los nombres de los países que cumplen la condición
establecida, mediante la siguiente sentencia:
SELECT Nombre
FROM Paises
WHERE Moneda = ’Euro’ AND Poblacion_actual > 40000000
274 Sistemas de Información Geográfica
Las consultas pueden ser mucho más complejas, y las sentencias SELECT pueden
usarse como parámetros dentro de un predicado lógico. Por ejemplo, supongamos
que disponemos de una tabla denominada Capitales con datos de todas las
capitales del mundo, y que cuenta con los siguientes campos:
NOMBRE
POBLACION_HOMBRES
POBLACION_MUJERES
La sentencia siguiente recupera en una nueva tabla todos los países cuyas
capitales tienen una población de hombres mayor que de mujeres.
SELECT Nombre
FROM Paises
WHERE Capital IN (SELECT Nombre FROM Capitales
WHERE Poblacion_hombres > Poblacion_mujeres)
La subconsulta entre paréntesis crea una tabla con los nombres de las capitales
que cumplen la condición relativa a las poblaciones de hombres y mujeres. La otra
consulta selecciona los países cuya capital aparece en dicha tabla (esa inclusión
la define el comando IN). En conjunto, tenemos una única consulta, pero que se
basa en dos tablas con una relación entre sí.
Los campos Capital en la tabla Países y Nombre en la tabla Capitales son
los que establecen la relación entre ambas tablas, permitiendo unir la información
de estas. No obstante, el resultado de la expresión anterior no es una unión tal y
como la hemos visto. Para realizar una unión mediante SQL podemos utilizar una
expresión como la siguiente:
SELECT *
FROM Paises, Capitales
WHERE Paises.Capital = Capitales.Nombre
Esta consulta recupera todos los países donde la moneda utilizada es el Euro,
y para cada uno de ellos define dos atributos: el nombre (directamente obtenido
Consultas y operaciones con bases de datos 275
Figura 11.3: Consulta mediante rectángulo. Los países que intersecan con los limites
definidos por dicho rectángulo quedan seleccionados.
Las relaciones que utilizamos en este caso ya no son entre punto y polígono,
sino entre polígonos. La selección puede incluir tanto los países que se encuentran
por completo contenidos dentro del polígono, como aquellos que intersecan con
este. Es decir, que podemos aplicar varias de las relaciones que en su momento
estudiamos entre dos polígonos.
Además de poder efectuar estas consultas con un elemento tal como un punto
o un polígono, también podemos valernos de otra capa son sus propias geometrías.
Por ejemplo, si disponemos del contorno del continente europeo, podemos consultar
la capa de países del mundo y ver cuáles se encuentran en Europa. O una capa de ríos
del mundo nos valdría para responder a la pregunta ¿qué países atraviesa el Nilo?
Las relaciones espaciales entre las entidades de varias capas pueden emplearse
para efectuar una selección, pero también para otra de las operaciones importan-
tes que veíamos en el caso de la componente temática: la unión. En aquel caso,
se establecían las relaciones entre tablas de acuerdo a un predicado relativo a
la propia información de las tablas (en la mayoría de los casos, que los valores
de dos campos, uno en cada tabla, fueran coincidentes). La incorporación de la
componente espacial implica la aparición de predicados espaciales, y estos pueden
emplearse del mismo modo que los no espaciales para definir un criterio de unión.
Un ejemplo muy sencillo de unión espacial es el que encontramos si combinamos
la capa de países del mundo que venimos utilizando con una capa de ciudades
del mundo. Podemos unir a la tabla de esta segunda capa todos los valores que
caracterizan al país al que pertenece cada ciudad. Si existe un campo común entre
ambas tablas de atributos (por ejemplo, el nombre del país), esto serviría para
278 Sistemas de Información Geográfica
efectuar esta unión. No obstante, esto no es necesario, ya que existe otro elemento
común que no se encuentra almacenado dentro de la tabla, pero que puede tomarse
de la componente espacial: toda ciudad debe estar situada dentro de los límites
del país al que pertenece. Esto sirve para establecer la relación entre las tablas,
y cada ciudad debe relacionarse con aquella entidad dentro de cuya geometría se
encuentre el punto que la representa.
De modo similar a como ocurría con las operaciones temáticas, todas estas
operaciones pueden llevarse a cabo en un SIG mediante herramientas sencillas
que se encargan de efectuar las selecciones o uniones, utilizando tanto elementos
gráficos como textuales. Disponemos así de herramientas de consulta temática
y herramientas de consulta espacial, ambas como utilidades independientes. Po-
demos, no obstante, dotar de mayor potencia a las realización de consultas si
combinamos ambas componentes del dato geográfico.
Es en este punto donde los lenguajes de consulta que ya hemos visto hacen su
aparición. Estos lenguajes han demostrado ser idóneos para el manejo de las bases
de datos, y resulta lógico pensar en ellos como base para un lenguaje más potente
que permita incorporar la componente espacial a las consultas. Tenemos de este
modo los lenguajes de consulta espacial
puede implementarse como tipo SQL de muchas formas distintas, no siendo estas
compatibles entre sí. Es ahí donde hacen su aparición los estándares, los cuales
veremos con más detalle en el capítulo 32.
De especial importancia en este sentido es la norma denominada Simple Features
for SQL, que especifica cómo han de implementarse los tipos SQL correspondientes
a los objetos espaciales, con objeto de estandarizar esta implementación. Así,
una base de datos incorporará dichos tipos en sus modelos y estos podrán ser
posteriormente utilizados para la realización de consultas SQL. En el ya citado
capítulo 32 explicaremos en detalle este y otros estándares.
El aspecto más importante para el contenido de este apartado no es, no obstan-
te, el modelo de datos u otras características de la base de datos en sí (vimos esto
ya con más detalle en el capítulo 8), sino la forma en que esto afecta a la realización
de consultas. Por ello, la parte de mayor interés son los métodos que esos tipos
implementan, y que pueden emplearse para dar forma a consultas espaciales como
las que veíamos en el apartado previo.
Estos métodos vienen también especificados por la norma Simple Features, y
como ya veremos podemos dividirlos en tres grupos: funciones básicas, operaciones
topológicas y de conjunto, y operaciones de análisis espacial. Los resultados que
arrojan estos métodos se pueden emplear para dar forma a consultas que reali-
zan operaciones como la selección o la unión. Ya vimos cómo llevar estas a cabo
mediante consultas SQL, y los ejemplos con contenido espacial del apartado son
también operaciones de este tipo, bien sean consultas o uniones. Veamos, pues,
cómo podrían realizarse mediante consultas SQL empleando los métodos que han
de presentar los tipos que cumplen la especificación Simple Features.
Por ejemplo, para ver que países son atravesados por el río Nilo, podemos
emplear una consulta como la siguiente:
SELECT Paises.Nombre,
FROM Rios, Paises
WHERE Cross(Rios.shape, Paises.Shape)
AND Rios.Nombre = ’Nilo’
La expresión Cross(Rios.Shape, Paises.Shape) hace uso del método Cross,
que devuelve 1 en caso de que las dos geometrías pasadas como parámetros se
intersequen, y 0 en caso contrario. Este se utiliza para realizar la selección solo
sobre aquellas que cumplan la condición de ser cortadas por una geometría dada,
en este caso la del río Nilo.
La relación espacial entre el río y los distintos países no puede evaluarse ha-
ciendo uso de SQL sin extensiones espaciales, puesto que la información sobre
dicha relación no reside en la tabla de atributos, que es el conjunto de datos con
el que trabaja el lenguaje SQL para realizar consultas. La información reside en
las geometrías asociadas, y acceder a la información de estas requiere utilizar los
métodos correspondientes a los distintos tipos espaciales.
280 Sistemas de Información Geográfica
SELECT Paises.Nombre,
Length(Intersection(
Rios.Shape, Paises.Shape))
AS ’Longitud’
FROM Rios, Paises
WHERE Cross(Rios.Shape, Paises.Shape)
AND Rios.Nombre = ’Nilo’
número correspondiente, pero antes tendríamos que leer una gran cantidad de
nombres y apellidos (más aún en este caso, considerando que la letra P se encuentra
en la mitad final del alfabeto), con lo que no resulta una opción muy lógica. En
tal caso, una guía telefónica sería una herramienta inútil.
Sin embargo, habitualmente consultamos guias telefónicas sin problemas y
encontramos rápidamente el teléfono de una persona sin necesidad de leer más que
unos pocos nombres. Esto es así porque sabemos cómo están dispuestos los datos
y buscando en el índice sabemos incluso en qué página comienzan los apellidos con
una letra dada (en este caso la letra P). El uso de este índice nos permite optimizar
el proceso de búsqueda de una forma realmente radical.
Al utilizar una base de datos, si no disponemos de un índice deberemos recorrer
toda ella para dar respuesta a nuestras consultas. No sabemos dónde buscar las res-
puestas a nuestras consultas, del mismo modo que si en una guia telefónica no supié-
ramos que carece de sentido buscar en la letra F el número telefónico del señor Pérez.
Los índices nos permiten alcanzar los elementos que constituyen la respuesta
a nuestra consulta, haciéndolo de la forma más rápida y llegando hasta ellos sin
tener que pasar por todos los restantes.
Describir los índices empleados en bases de datos no espaciales requiere des-
cribir asimismo estructuras de datos complejas que escapan del alcance de este
texto (los denominados árboles B+ son las estructuras utilizadas con más frecuen-
cia para esta tarea)5 . Por esta razón, no se detallarán en este capítulo más allá
de la anterior descripción básica, pudiéndose encontrar más información en las
referencias proporcionadas a lo largo del capítulo.
Más interesantes que estos índices nos resultan aquellos que se utilizan en
las bases de datos espaciales, que denominamos índices espaciales. El concepto
es similar al de índices de bases de datos no espaciales: elementos que permiten
optimizar las consultas mediante una correcta estructuración de los datos, en
particular en este caso de su componente espacial.
Los índices espaciales no deben resultarnos desconocidos, ya que los vimos
en el capítulo 5, estudiando en su momento los tipos existentes y su proceso de
creación. Ahora en este capítulo veremos el verdadero uso práctico de estos, y así
podremos comprender mejor la necesidad de su existencia.
Puede entenderse igualmente la idea de un índice espacial mediante un sencillo
ejemplo de cómo empleamos ideas parecidas a los índices espaciales de forma
natural cuando tratamos de resolver una consulta espacial sin la ayuda de un SIG.
Supongamos que tenemos nuestro mapa de países del mundo y queremos averiguar
qué países tienen su frontera a menos de 3000 kilómetros de la frontera de España.
¿Cómo operaríamos de manera natural para dar respuesta a esta consulta?
La solución más inmediata es medir la distancia entre España y todos los
5
Para el lector interesado, puede encontrarse este tema tratado con mayor profundidad en,
por ejemplo, [145]. La descripción original de los árboles B+ aparece en [146]
282 Sistemas de Información Geográfica
Figura 11.4: Para calcular los diez puntos más cercanos a una coordenada dada (en
rojo), nuestra intuición espacial nos ayuda a decidir que estos se han de buscar en un
subconjunto reducido tal como el de los situados dentro del circulo azul de la figura. Este
proceso de filtrado y refinamiento ahorra operaciones, y es el fundamento conceptual
de los índices espaciales.
Otros procesos en los que son vitales los índices espaciales son las operaciones
de solape entre capas de polígonos, que veremos en el capítulo 18. Sin ellos, el
rendimiento de estas operaciones espaciales sería mucho menor o incluso, como
en el caso de la interpolación, totalmente insuficiente para que tales operaciones
se puedan aplicar en la mayoría de los casos.
11.5. Resumen
Las consultas son uno de los análisis fundamentales dentro de un SIG. Bási-
camente, una consulta efectúa una pregunta acerca de la información contenida
en una capa, y obtiene como resultado los elementos de la capa que dan respuesta
a dicha pregunta. Las consultas son en general un elemento aplicado sobre capas
vectoriales, y el resultado de la consulta se expresa mediante una selección de
entidades dentro de aquellas que componen dicha capa.
Las consultas pueden efectuarse sobre la componente temática del dato geo-
gráfico, en cuyo caso emplean los mismos mecanismos que las bases de datos
fuera de un SIG. Esto incluye el empleo de lenguajes de consulta, específicamente
desarrollados para esta tarea. El lenguaje SQL (Structured Query Language) es
el más habitual de estos.
Al incorporar la componente espacial, se añaden nuevos elementos para realizar
consultas. Los criterios de consulta añaden predicados espaciales basados en las
relaciones entre las distintas entidades, y estos a su vez pueden combinarse con los
predicados no espaciales para la formulación de consultas complejas. Los lenguajes
de consulta se extienden para dar cabida a estos nuevos predicados, así como a
funciones espaciales basadas en las propias entidades de las capas.
La aplicación de criterios espaciales hace necesaria la utilización de índices
espaciales para optimizar el trabajo con grandes volúmenes de datos. Estos índices
estructuran los datos de tal modo que en la realización de consultas espaciales no es
necesario efectuar dicha consulta sobre la totalidad de los datos, sino únicamente
sobre una fracción de ellos.
Capítulo 12
Estadísticas espaciales
En este capítulo veremos cómo realizar análisis estadísticos sobre datos espaciales,
adaptando los descriptores clásicos a la información espacial. Asimismo, estudiaremos
otros parámetros exclusivos para datos espaciales, tales como aquellos que se emplean para
el estudio de patrones de puntos.
Un elemento clave del análisis estadístico es el variograma, que analizaremos en pro-
fundidad. El uso de este elemento es básico para la aplicación de métodos de interpolación
geoestadísticos que veremos más adelante (Capítulo 13).
Unos conocimientos básicos de estadística descriptiva son necesarios para seguir el
contenido de este capítulo.
12.1. Introducción
La información espacial es susceptible de ser analizada estadísticamente como
cualquier otro tipo de información. Una serie de n datos recogidos en otros tantos
puntos no deja de ser una serie de datos sobre la que pueden aplicarse las técnicas
estadísticas habituales. No obstante, cada uno de estos datos tiene asociada una
coordenada, y esta aporta una información adicional que puede emplearse igual-
mente para obtener resultados estadísticos de diversa índole. Más aún, como ya
vimos, el análisis en exclusiva de los valores sin considerar la componente espacial
asociada a estos puede no ser adecuado por no cumplir algunos de los supuestos
de la estadística clásica.
Si trabajamos en el plano cartesiano, en lugar de una serie de valores de una
variable a disponemos de una serie de ternas (x,y,a). Extendiendo la posibilidad
de analizar estadísticamente los valores a recogidos en esa serie de localizaciones,
encontramos otras dos formas de analizar este conjunto.
Analizar la disposición espacial, con independencia de los valores. Es decir,
estudiar el conjunto de pares de valores (x,y)
Analizar la disposición espacial y los valores recogidos. Es decir, estudiar
el conjunto de ternas (x,y,a)
Por la concepción anterior, este tipo de análisis se lleva a cabo preferentemente
sobre capas de tipo punto. No obstante, algunos de estas formulaciones pueden
igualmente aplicarse a capas ráster, considerando que cada celda conforma de igual
modo una terna de valores, pues su localización espacial está perfectamente definida.
286 Sistemas de Información Geográfica
Pn
i=1 xi
x= (12.2.1)
PnN
i=1 yi
y=
N
Cada uno de los puntos puede ponderarse según el valor recogido en el mismo,
de forma que lo anterior quedaría como
Estadísticas espaciales 287
PN
ai xi
x = Pi=1
N
(12.2.2)
i=1 ai
PN
ai yi
y = Pi=1
N
i=1 ai
PN di
i=1 xi
x = PN aidi (12.2.4)
i=1 ai
PN d i
i=1 ai yi
y= PN di
i=1 ai
(12.2.5)
Figura 12.1: Centro mediano y lineas de división pasando por este, las cuales dividen el
conjunto de puntos en dos partes iguales a Este y Oeste, y Norte y Sur, respectivamente.
Figura 12.2: Circulo de radio igual a la distancia típica centrado en el centro medio del
conjunto.
PN PN
i=1 dxi − i=1 dyi
tanα =
2 N
P
i=1 dxi dyi
r 2
PN PN PN
i=1 dxi − i=1 dyi +4 i=1 dxi dyi
+ PN (12.2.9)
2 i=1 dxi dyi
siendo dxi y dyi las distancias en los ejes x e y respectivamente entre el punto
i–ésimo y el centro medio.
El semieje menor es perpendicular al anterior.
Las distancias típicas en cada uno de estos dos semiejes vienen expresadas por
N N
X !
X
δx0 = dx2i cos2 α+2 dxi dyi sinαcosα
i=1 i=1
N
X 21
+ dyi2 sin2 α (12.2.10)
i=1
290 Sistemas de Información Geográfica
N N
X !
X
δy 0 = dx2i sin2 α+2 dxi dyi sinαcosα
i=1 i=1
N
X 12
+ dyi2 cos2 α (12.2.11)
i=1
Figura 12.3: Aunque ambas distribuciones tienen la misma distancia típica, la dispersión
en relación al área analizada es distinta, con lo que los valores de distancia relativa serán
distintos.
ser reducidos en ultima instancia a puntos (los polígonos bien por sus puntos consti-
tuyentes o bien por el centroide, el cual coincide con el centro medio), y analizados
estos con algunas de las fórmulas antes vistas o las que se verán más adelante. La
particularidad de las lineas estriba en que, además de valores puntuales o de área
(como los de los polígonos), definen igualmente direcciones y ángulos de giro entre
sus segmentos. El análisis estadístico de variables circulares como estas presenta
sus propias particularidades, que deben conocerse para poder extraer resultados
correctos a partir de datos de esta índole.
Un ejemplo del uso de variables direccionales lo encontramos, por ejemplo, en
el estudio de desplazamientos de animales cuyas rutas hayan sido monitorizadas
y se encuentren dentro de un SIG como capas de líneas. Un situación similar se da
en el caso de elementos que no representen un movimiento pero tengan dirección,
tales como fallas u otros elementos geológicos. No obstante, los conceptos relativos
a este tipo de variables también tienen aplicación para cualquier información simi-
lar, con independencia de su formato de almacenamiento. Así, son de aplicación,
entre otros, para el estudio de orientaciones dentro del análisis geomorfométrico
(Capítulo 15), el cual se lleva a cabo fundamentalmente sobre capas ráster.
En el caso que nos ocupa del estudio de líneas, pueden considerarse todos y
cada uno de los segmentos de estas como líneas en sí, o bien la linea ficticia que
une el inicio del primer segmento con el final del último.
A continuación se mostrarán brevemente los estadísticos más frecuentes para
datos circulares, con especial énfasis en su aplicación al análisis de líneas dentro
de un SIG. Descripciones más detalladas de estos y otros elementos de estadística
circular, junto a sus aplicaciones en áreas donde el empleo de SIG es habitual,
pueden consultarse en [153] o [154].
Para comenzar, el cálculo de la media de dos ángulos ejemplifica bien las particu-
laridades de los datos circulares. Sean tres ángulos de 5◦ , 10◦ y 15◦ respectivamente.
El concepto habitual de media aplicado a estos valores resultaría en un ángulo
medio de 10◦ , correcto en este caso. Si giramos ese conjunto de ángulos 10 grados
en sentido antihorario, dejándolos como 355◦ , 0◦ , 5◦ , la media debería ser 0◦ , pero
en su lugar se tiene un valor medio de 120◦ .
Una forma correcta de operar con ángulos α1 ,...,αn consiste en hacerlo con las
proyecciones del vector unitario según dichos ángulos, es decir sinα1 ,....sinαn y
cosα1 ,....cosαn . Aplicando luego los estadísticos habituales sobre estos valores se
obtienen unos nuevos valores de senos y cosenos que permiten obtener el ángulo
resultante aplicando sobre ellos la función arcotangente.
En el caso de segmentos orientados tales como los que constituyen las líneas den-
tro de una capa de un SIG, resulta conveniente tratar cada segmento como un vector.
La resultante de su suma vectorial será otro vector con la dirección media de todos
los segmentos, y cuyo módulo (longitud) aporta información acerca de la tendencia
y variación de las direcciones a lo largo de la linea. Si la dirección es uniforme, el mó-
292 Sistemas de Información Geográfica
dulo será mayor, siendo menor si no lo es (Figura 12.4). El vector resultante puede di-
vidirse por el número total de segmentos iniciales para obtener una media vectorial.
Es decir, se tiene un vector cuya orientación viene definida por un ángulo α
tal que
S
α = arctan (12.3.1)
C
y con un módulo R según
√
S 2 +C 2
R= (12.3.2)
N
siendo S y C las sumas de senos y cosenos, respectivamente.
N
X N
X
S= sinαi ; S= cosαi (12.3.3)
i=1 i=1
de una especie, que puede denotar la existencia de una linea migratoria preferida o re-
velar la presencia de algún factor que causa dicha predominancia en las direcciones.
Existen diversos test que permiten aceptar o rechazar la hipótesis de existencia
de uniformidad entre los cuales destacan el test de Rayleigh, el test V de Kuiper
[155] o el test de espaciamiento de Rao [156]
Para este último, se tiene un estadístico U según
N
1X
U= kTi −λk (12.3.4)
2 i=1
siendo
360
λ= (12.3.5)
N
(
αi+1 −αi si 1 ≤ i < N −1
Ti = (12.3.6)
360−αn +α1 si i = N
Puesto que las desviaciones positivas deben ser iguales a las negativas, lo
anterior puede simplificarse como
N
X
U= (Ti −λ) (12.3.7)
i=1
proceso estocástico que genera tales patrones, compartiendo todos ellos una similar
estructura (la ley de dicho proceso). Los puntos son eventos de dicho proceso.
Describiendo el tipo de patrón se obtiene información sobre el proceso puntual
que lo ha originado.
Podemos encontrar múltiples ejemplos de procesos puntuales, tales como la
disposición de individuos de una especie, la disposición de los árboles en un bosque
o la aparición de casos de una enfermedad. Cada uno de ellos tiene sus propias
características.
Como se puede observar en la figura 12.5, existen tres tipos de patrones que
un proceso de puntos puede generar:
Agregado. La densidad de los puntos es muy elevada en ciertas zonas.
Aleatorio. Sin ninguna estructura, las posiciones de los puntos son inde-
pendientes entre sí.
Regular. La densidad es constante y los puntos se disponen alejados entre sí.
Figura 12.6: Dos disposiciones de puntos distintas que darían un mismo resultado al
analizarse por el método de cuadrantes.
296 Sistemas de Información Geográfica
dmc
Imc = (12.4.2)
E(dmc )
siendo dmc la media de las distancias al punto más cercano, según
PN
i=1 dmc
dmc = (12.4.3)
N
E(dmc ) es la media esperada en una distribución de Poisson, y se calcula según
la expresión
1
µ̂ = √ (12.4.4)
2 λ
siendo λ la densidad de puntos por unidad de área, es decir
N
λ= (12.4.5)
A
[163] propone corregir lo anterior para tener en cuenta los efectos de borde,
utilizando la siguiente expresión:
1 0,041 B
µ̂ = √ +0,0514+ √ (12.4.6)
2 λ N N
donde B es la longitud del perímetro del área estudiada.
El índice de vecino más cercano tiene un valor de 1 en una distribución aleatoria,
menor de 1 en una distribución agregada y mayor en una regular.
La desviación típica de las distancias se estima según
s
4−π
σ̂d = 2 (12.4.7)
4π NA
Estadísticas espaciales 297
Cuadro 12.1: Valores relativos al índice de vecino más próximo para los distintos
tipos de distribuciones del ejemplo propuesto. NNI es el indice de vecino más próximo
(Nearest–Neighbour Index).
por dicho proceso. La función que cumple esta definición se denomina función K
[164], y puede expresarse como
1
K(h) = E(n) (12.4.9)
λ
donde n es el número de eventos a distancia menor que h de un evento aleatorio
cualquiera. La intensidad λ se añade para eliminar la influencia de la densidad,
ya que el valor esperado de puntos a una distancia dada está en relación directa
con dicha densidad.
Tiene sentido estudiar esta función tan solo para valores de h pequeños en
comparación con el tamaño de la zona de estudio, ya que para otros valores no
resulta coherente analizar los efectos de segundo orden dentro de dicha zona. Por
ello, lo habitual es aplicar esta función solo a los valores de h menores que la mitad
de la dimensión menor de la zona de estudio.
Un estimador de la función K es
N N
1 X X
K̂(h) = Ih (dij ) (12.4.10)
λ2 A i=1 j=1,j6=i
siendo Ih una función indicadora de la forma
(
1 si dij ≤ h
Ih (dij = (12.4.11)
0 si dij > h
En este estimador no se consideran los efectos de borde, y aquellos puntos
situados cerca de la frontera de la zona de estudio tendrán estimaciones inferiores
a las reales. Un estimador que corrige estos efectos [164] es el siguiente:
N N
1 X X Ih (dij )
K̂(h) = 2
(12.4.12)
λ A i=1 j=1,j6=i wij
El valor wi j pondera los distintos puntos en función de su distancia al borde
de la zona de estudio. Para calcularlo se traza una circunferencia por el punto i
con radio dij (es decir, una circunferencia con centro en el punto i y que pasa por
el punto j), siendo wij la fracción de dicha circunferencia que queda dentro de la
zona de estudio (Figura 12.7).
Hay que tener en cuenta que en ocasiones no es conveniente aplicar el efecto
de borde, por ejemplo en el caso en que el proceso puntual subyacente no tenga
lugar fuera de la zona de estudio.
Puesto que la densidad se estima como λ = N A , la expresión del estimador de
la función K queda finalmente como
N N
A X X Ih (dij )
K̂(h) = 2
(12.4.13)
N i=1 j=1,j6=i wij
Estadísticas espaciales 299
Figura 12.7: Corrección del estimador K̂(h) en función de los efectos de borde. El
parámetro de corrección es el cociente entre la longitud interior (en trazo continuo) y
la total de la circunferencia
N
1 X Ih (dij )
K̂(h) = (12.4.15)
λ2 A j=1,j6=i wij
−1
E(I) = (12.5.4)
N −1
Valores por debajo de este valor esperado indican autocorrelación negativa,
mientras que los situados por encima reflejan autocorrelación positiva. Al igual
que sucede para otros parámetros, los valores de la desviación típica del parámetro
I son conocidos, lo que permite establecer intervalos de confianza para rechazar
o aceptar la hipótesis nula de ausencia de autocorrelación espacial.
Estos valores de la desviación típica tienen distintas expresiones en función de
bajo qué supuestos se determinen. Estos supuestos y las expresiones resultantes
no se tratarán aquí, pero pueden consultarse, por ejemplo, en [169].
Respecto el parámetro c de Geary, su expresión es
N X N
N −1 X wij (xi −xj )2
c= PN (12.5.5)
2S0 i=1 j=1 i=1 (xi −µ)2
N X
X N
Γ= aij bij (12.5.6)
i=1 j=1
Con este esquema pueden expresarse otros indicadores tales como los deno-
minados índices de conteo conjunto (joint count) [169] u otros más específicos.
Todo estos parámetros caracterizan la autocorrelación espacial para el conjunto
completo de puntos, es decir, para todo el área de estudio. Junto a estos, existen
otros parámetros que miden la autocorrelación espacial a nivel local.
[170] proponen dos nuevos parámetros Gi (d) y G∗i (d) que cuantifican si un
punto dado i se encuentra rodeado por agrupaciones de puntos con valores altos
o bajos. En el caso de Gi (d) no se tiene en cuenta el valor del punto i mientras que
en el caso de G∗i (d) sí se emplea este.
De forma similar, [171] propone una versión local del parámetro I de Moran,
denotándolo como indicador local de asociación espacial (Local Indicator of Spatial
Association, LISA).
La forma de interpretar estos parámetros locales es similar a lo visto ante-
riormente, y las formulaciones concretas de cada uno pueden consultarse en las
referencias correspondientes.
Estadísticas espaciales 303
12.5.3. Variogramas
Los variogramas son elementos clave para definir la autocorrelación espacial
y aprovechar el conocimiento de esta dentro de formulaciones como el kriging (ver
13.2.5). Los variogramas se fundamentan en el concepto de semivarianza.
La semivarianza es una medida de la autocorrelación espacial de una variable
x entre dos puntos i,j, y viene expresada por
1
γ(xi ,xj ) = (zi −zj )2 (12.5.7)
2
El cuadrado de las varianzas se multiplica por 12 debido a que γ(xi ,xj ) = γ(xj ,xi ).
De ahí el uso del prefijo semi.
Puesto que puede calcularse la distancia entre dichos puntos, pueden repre-
sentarse los valores de γ frente a las distancias h. Se obtiene una nube de puntos
(nube del variograma) como la mostrada en la figura 12.8.
Esta nube aporta en principio poca información, pero puede resumirse agru-
pando los pares de puntos por intervalos de distancia, y calculando la media de
todas las semivarianzas en cada intervalo. De esta forma se tiene una función que
relaciona la semivarianza y la distancia entre puntos, según
m(h)
1 X
γ(h) = (xi −xj )2 (12.5.8)
2m−(h) i=1
304 Sistemas de Información Geográfica
siendo m(h) el número de puntos del conjunto separados entre sí por una distancia h.
En la práctica se establecen una serie de valores de distancia equiespaciados,
cada uno de los cuales define un intervalo centrado en dicho valor. La función m(h)
representa el número de puntos en cada bloque. Es importante que este número de
puntos en cada bloque sea significativo, especialmente para dar validez al posterior
ajuste sobre estos valores medios, como más adelante veremos.
La función γ(h) es lo que se conoce como variograma experimental 1
La nube de puntos de la figura 12.8 se resume en el variograma de la figura 12.9.
2
Tanto Sill como Nugget son términos ingleses que se emplean sin traducir de forma habitual,
por lo que será así como se citen en este texto.
306 Sistemas de Información Geográfica
siendo las más habituales de las funciones f (x) las de tipo lineal, circular o es-
férico. Las formulas detalladas de estas y otras funciones pueden consultarse,
por ejemplo en [172]
Funciones que tienden asintóticamente al valor del sill (c). Se define un
rango efectivo, siendo este en el cual se da γ(h) = 0,95c. Entre estas funciones
destacan
Exponencial
−3h
γ(h) = c 1−e a (12.5.11)
Gaussiana
−9h2
γ(h) = c 1−e a2 (12.5.12)
Algunos autores como [173] usan h directamente en lugar de 3h, en cuyo caso
el rango no es igual a a, sino a a3
El empleo de uno u otro modelo dependerá del conocimiento que tengamos
acerca del proceso modelizado.
La figura 12.10 muestra las gráficas de los tipos de variogramas anteriores.
Llevar a cabo el ajuste del variograma teórico no es en absoluto un proceso
trivial. Lo más sencillo es tratar de minimizar el error cuadrático. No obstante,
deben tenerse en cuenta algunas consideraciones adicionales como las siguientes:
No todos los puntos del variograma experimental son igual de precisos. Si
en un intervalo solo había cinco puntos en la nube del variograma mientras
que en otro había 50, debe favorecerse un ajuste correcto sobre este último
antes que sobre el primero, ya que su precisión será mayor.
Estadísticas espaciales 307
Figura 12.10: Distintos modelos de variograma teórico con los mismos parámetros de
forma.
Los puntos para valores altos del espaciamiento h son menos relevantes y
debe darse más importancia en el ajuste a los relativos a valores bajos. Esto
se debe a que el objeto del variograma es modelizar la influencia que ejercen
los puntos cercanos, y más allá del valor del rango esa influencia no se da, con
lo que no es una parte de interés del variograma. Asimismo, la aplicación del
kriging se realiza utilizando la parte inicial del variograma (valores pequeños
de h), especialmente cuando hay una gran densidad de datos, por lo que
resulta más apropiado tratar de minimizar los errores en esta parte inicial.
Una solución para incorporar lo anterior es, en lugar de minimizar el error
cuadrático total, minimizar este ponderado según el número de puntos en cada
intervalo y las distancias de estos. Es decir, minimizar
b
X Ni
(γ̂(hi )−γ(hi ))2 (12.5.13)
h
i=1 i
te que con menos de 50 puntos la fiabilidad del variograma será dudosa. Valores entre
100 y 150 son adecuados, y mayores de 250 puntos garantizan un variograma fiable.
En el caso de tratarse de variogramas anisotrópicos, estos números son mayores.
12.5.4. Correlogramas
Para dos variables independientes x e y dadas, se define la covarianza de una
muestra como
n
1 X
Sxy = (xi −x)(yi −y) (12.5.14)
n−1 i=1
Puede aplicarse este concepto para una única variable dada. Para dos puntos
dados, su covarianza es
C +C C +C
0 1 0 1
C1
a) b)
C0
(
γ(h) =
0 si khk = 0 (12.5.16)
C0 +C1 1−e h/a si khka
(
C0 +C1 si khk = 0
γ(h) = (12.5.17)
C1 eh/a si khka
En la práctica, se emplea el variograma porque resulta más sencillo modelizar
las semivarianzas que las covarianzas.
12.6. Resumen
Los datos espaciales presentan particularidades que deben considerarse a la
hora de realizar cálculos estadísticos sobre ellos.Teniendo esto en cuenta, existen
muy diversas formas llevar a cabo el análisis estadístico de datos espaciales, de
las cuales hemos visto algunas de las más importantes
Los elementos básicos de estadística descriptiva para datos espaciales son el
centro medio, el centro mediano y la distancia típica. La elipse de variación permite
representar gráficamente la dispersión, considerando que esta no se da igual en
todas direcciones.
En el caso de trabajar con líneas y las direcciones que estas definen, es im-
portante tener en cuenta la naturaleza circular de las variables. El trabajo con
vectores en lugar de valores escalares es una solución práctica habitual para evitar
resultados incorrectos.
Otro elemento importante del análisis estadístico espacial es el análisis de
patrones de puntos. El método de división por cuadrantes, el de vecino más cercano,
o el basado en funciones K de Ripley, todos ellos permiten caracterizar la disposición
espacial de los puntos y con ello el proceso puntual inherente que da lugar a la misma.
Por último, la existencia de autocorrelación espacial puede medirse con índices
como el I de Moran o el c de Geary, así como analizarse a través de variogramas.
A partir de los datos de las semivarianzas se elabora un variograma experimental,
el cual sirve como base para el ajuste de un variograma teórico. Este puede puede
emplearse posteriormente en otras técnicas tales como el kriging, que veremos más
adelante.
310 Sistemas de Información Geográfica
Capítulo 13
13.1. Introducción
Una buena parte de los análisis geográficos se realizan sobre capas en formato
ráster. Estas, por sus propias características, se prestan mejor a cierto tipo de
análisis, y la implementación de estos resulta más sencilla, por lo que lo habitual
es encontrarlos implementados para ser empleados con capas ráster.
La información de la que disponemos no siempre se encuentra en este for-
mato, pero ello no significa necesariamente que no podamos utilizarla. A partir
de información en otros formatos podemos generar capas ráster (este proceso lo
denominaremos rasterización) que reúnan las características para ser analizadas
mediante dichos algoritmos. El problema es en todos los casos la creación de una
estructura regular a partir de información que no es regular, tal como la contenida
en un TIN, una capa de polígonos, una de líneas, o una capa de valores puntuales.
Si disponemos de una capa de polígonos y estos cubren la totalidad del territo-
rio, este proceso no es difícil. Basta ver dentro de qué polígono cae la coordenada
que define cada celda, y asignar a esta el valor de uno de los atributos de la capa de
polígonos, el cual contenga la variable a recoger en la capa ráster1 . En el caso del
1
En realidad, y aunque esta sea una manera sencilla de rasterizar unos polígonos, operando de
este modo el rendimiento que se obtendría sería insuficiente, ya que el número de celdas a comprobar
312 Sistemas de Información Geográfica
TIN es similar, ya que cada uno de los triángulos permite el cálculo de valores en
sus puntos, y puede igualmente establecerse una relación entre estos y las celdas
de una malla ráster que cubra el mismo espacio geográfico.
Si tenemos una capa de líneas la cosa no es muy distinta. Basta ver por qué
celdas pasan esas líneas y asignar el valor de estas a dichas celdas. Pueden existir
ambigüedades a la hora de considerar cuánto ha de recorrer una linea a través de
una celda para considerar que pasa por esta y asignarle el valor correspondientes,
como se muestra en la figura 13.1. No obstante, y salvando estos aspectos, no
resulta difícil rasterizar una capa de líneas y tener una capa ráster válida.
Figura 13.1: Formas distintas de rasterizar una línea en función del criterio empleado.
Por último, para el caso de una capa de puntos, la conversión en una capa ráster
es aún más sencilla. Basta con asignar los correspondientes valores a aquellas celdas
en las que se sitúen los puntos. Las restantes, y puesto que no existe información
al respecto, deberán llevar el valor que codifica la ausencia de datos.
Sin embargo, estas formas de rasterización pueden no ser idóneas según las
circunstancias. En los dos últimos casos (líneas y puntos), y especialmente para
el caso de puntos, la situación que se recoge en la capa ráster puede no ser la
óptima para el análisis, y realmente no estaremos aprovechando las capacidades
del modelo de datos ráster a pesar de haber llevado a cabo una conversión.
Por ejemplo, si las líneas que rasterizamos son curvas de nivel, van a indicar
la elevación en las mismas. Fuera de ellas, la capa ráster generada no tendrá datos,
pero en realidad esas celdas sí que tienen una elevación concreta. Del mismo modo
sucede si medimos esa elevación en una serie de puntos en lugar de en líneas y
después rasterizamos la capa, o si medimos cualquier otra variable en un número
dado de localizaciones puntuales y hacemos lo propio.
es muy elevado. Existen otro tipo de algoritmos, denominados de barrido, que resultan más eficaces,
aunque no los detallaremos aquí. Estos algoritmos no tiene en su origen ninguna relación con un
SIG, sino con la mera representación gráfica. Piensa que la pantalla de tu ordenador es como una
capa ráster, formada por una malla de pequeños puntos de luz, y representar todo polígono en ella
requiere en primer lugar expresar ese polígono en la forma en la que la estructura de la pantalla lo
requiere. En [174] puedes encontrar más información al respecto, así como en la dirección Web [175].
Para el caso de la rasterización de líneas, una referencia fundamental es [176]
Creación de capas ráster 313
13.2. Interpolación
En este caso, la lógica nos indica que el valorá ser inferior a 10, y también proba-
blemente a la media de los valores muestrales (9), ya que la celda problema se sitúa
más cerca de los valores inferiores que de los superiores a ese valor medio. Razonan-
do de este modo, aplicamos el hecho de que la proximidad incrementa la semejanza
de valores. Es decir, que existe autocorrelación espacial para la variable interpolada.
El caso siguiente ya es algo distinto:
En este caso, no parece tan sencillo «adivinar» el valor que corresponde. Esto
es así no porque las operaciones sean más complejas, sino porque no existe de
la misma forma que en los ejemplos anteriores la autocorrelación espacial de la
variable, y esa lógica no resulta tan obvia. Utilizando los distintos métodos de
interpolación, puede ser que estos den valores distintos, ya que se comportarán
de forma diferente ante tal situación.
Estos sencillos ejemplos numéricos tienen como objetivo el dar otra imagen
distinta de lo que el proceso de interpolación conlleva, y que puede resultar más
intuitivo al analizarlo sobre un conjunto reducido de puntos. A pesar de sus di-
ferencias, grandes en muchos casos, todos parten de ideas comunes que lo único
que pretenden es replicar de forma lo más precisa posible un campo a partir de
un conjunto definido de puntos con valores de este.
Existen muchos métodos de interpolación, de los cuales algunos cuentan con
más presencia en los SIG por estar más adaptados al tipo de dato que se maneja. Su
aplicación habitual dentro de un SIG es bidimensional, ya que una capa ráster es una
entidad bidimensional. Hablamos, por ello, de interpolación espacial. No obstante,
316 Sistemas de Información Geográfica
el lugar geométrico de las celdas cuyo punto más cercano de entre los de partida
es uno dado.
Pn
pi zik
zb = Pi=1
n k
(13.2.1)
i=1 pi
siendo pi el peso asignado al punto i–ésimo. Este peso puede ser cualquier función
dependiente de la distancia.
La función más habitual es la que da lugar al método de ponderación por
distancia inversa, de la forma
1
pi = (13.2.2)
dki
donde el exponente k toma habitualmente el valor 2.
Otra función habitual es la de la forma
pi = e−kdi (13.2.3)
así como la que constituye el método de decremento lineal, con la siguiente expresión:
di
pi = 1−( )k (13.2.4)
dmax
donde k es un parámetro que regula la forma de la función y dmax la distancia
máxima de influencia.
En la figura 13.3 puede verse el efecto del aumento de la distancia sobre los
pesos asignados según las ecuaciones 13.2.2 y 13.2.4.
1
0.9
0.8
0.7
Peso
0.6
0.5
0.4
0.3
0.2
0.1
0 10 20 30 40 50 60 70 80 90 100
Distancia
Figura 13.3: Variación del peso asignado en función de la distancia mediante ponderación
por distancia inversa (trazo punteado) y decremento lineal (trazo continuo) para valores
k = 1, k = 2 y k = 3.
.
zb = f (x,y) (13.2.5)
El ajuste de la función se realiza por mínimos cuadrados.
Estas funciones son de tipo polinómico, y permiten el cálculo de parámetros
en todas las celdas de la capa ráster. Por su propia construcción, requieren pocas
320 Sistemas de Información Geográfica
a)
b)
Figura 13.5: La interpolación basada en ponderación por distancia (a) no crea valores
extremos si estos no han sido recogidos, lo cual deriva en un «aplanamiento» de la
superficie y la aparición de falsas terrazas. Otros métodos tales como los splines (b) sí
que permiten la aparición de valores fuera del rango muestreado.
Figura 13.7: Separación de una variable en un un efecto debido a una tendencia geográfica
(en este caso en forma de plano inclinado con valores mayores la zona este) y un efecto local
13.2.5. Kriging
El kriging 2 es un método de interpolación estocástico, exacto, aplicable tanto
de forma global como local. Se trata de un método complejo con una fuerte carga
(geo–)estadística, del que existen además diversas variantes.
2
Krigeage en su denominación original en francés, que se traduce como krigeado en castellano,
aunque es mucho más habitual el uso de la denominación inglesa, la cual emplearemos aquí.
Creación de capas ráster 323
n
X
zb = zi Λ i (13.2.8)
i=1
siendo Λi los pesos asignados a cada uno de los puntos considerados. El cálculo de
estos pesos, no obstante, se realiza de forma más compleja que en la ponderación
por distancia, ya que en lugar de utilizar dichas distancias se acude al análisis de
324 Sistemas de Información Geográfica
λ 1 ··· 1 0 1
siendo dij la distancia entre los puntos i y j, y λ un multiplicador de Lagrange.
El error esperado en la estimación también se obtiene, como se dijo antes, a
partir de la estructura de los puntos. Es decir, utilizando igualmente el variograma.
Para ello se emplean los pesos calculados anteriormente, según
n
X
Sp2 = wi γ(dip )+λ (13.2.10)
i=1
Figura 13.9: Superficie obtenida mediante interpolación por kriging ordinario y capa
de varianzas. Nótese que, para lograr una representación visual mejor, la vista 3D tiene
una orientación contraria a la vista 2D.
Esta figura muestra también algunas de las principales debilidades que pueden
encontrarse en los distintos métodos de diseño de muestreo. Si la variable exhibe
un comportamiento periódico, un muestreo regular puede enmascarar la existencia
328 Sistemas de Información Geográfica
de gran precisión, los métodos exactos pueden tener más interés, de cara a
preservar la información original. Si, por el contrario, sabemos que los datos
de partida contienen mucho ruido, aquellos métodos que suavizan el resultado
tal como el kriging son preferibles, de cara a atenuar el efecto de dicho ruido.
El rendimiento de los algoritmos. Algunos algoritmos como los basados
en distancia son rápidos y requieren un tiempo de proceso aceptable incluso
en conjuntos de datos de gran tamaño. Otros, como el kriging, son mucho más
complejos y el tiempo de proceso es elevado. A esto hay que sumar la configura-
ción propia del método, con lo que crear una capa ráster con algunos métodos
puede llevar mucho más tiempo que con otros y requerir un esfuerzo mayor.
El conocimiento de los métodos. Por obvio que parezca, debe conocerse
bien el significado del método para poder aplicarlo. Un método de gran com-
plejidad como el kriging exige una solida base de conceptos geoestadísticos
para su aplicación. Más aún, el elevado número de ajustes que requiere y la
alta sensibilidad del método a la variación de estos valores refuerza lo anterior.
La figura 13.12 muestra tres capas interpoladas mediante kriging a par-
tir de un conjunto de puntos. El empleo de distintos ajustes y variogra-
mas(lógicamente, no todos correctos) da lugar a capas completamente di-
ferentes. Si no se emplea correctamente, un método de interpolación puede
producir resultados carentes de sentido, que aunque dan lugar a una capa
con datos en todas sus celdas, dichos datos pueden no ser adecuados.
Figura 13.12: Distintos resutlados obtenidos por kriging a partir de un mismo juego
de puntos, utilizando diferentes ajustes.
una vista 3D con una fotografía aérea, que emplearlo para crear una ortofoto.
Los requerimientos de calidad en el primer caso son menores, tan solo de
tipo visual, y cualquiera de los métodos puede sernos válido. Aplicar una
metodología compleja y laboriosa como el kriging quizás no sea la mejor
opción en este caso, y sí lo sea el empleo de una ponderación por distancia.
ε = (zb−z)2 (13.2.14)
Es decir, como el cuadrado de la diferencia entre el valor real y el estimado.
332 Sistemas de Información Geográfica
En los métodos exactos, por propia definición, este valor es cero, lo cual no
quiere decir, lógicamente, que la capa interpolada sea «perfecta» (lo es, pero solo
en los puntos de partida), ni que no pueda llevarse a cabo una validación.
Una forma habitual de proceder es, si se dispone de un juego grande de datos
(con muchos puntos), «reservar» algunos de ellos para una validación posterior. Se
interpola así una capa a partir de la mayor parte de ese conjunto, y se comprueba la
diferencia entre los valores estimados en los puntos restantes y los valores medidos
en los mismos. Los valores estimados no han sido influenciados por los valores
reales en dichos puntos, ya que no se han empleado en la interpolación.
Si no disponemos de un conjunto de datos de validación y el juego de datos
disponible es reducido y no podemos separar una parte de él para validar el re-
sultado, podemos llevar a cabo un proceso de validación cruzada. En este proceso,
se calculan por interpolación puntos en cada una de las coordenadas de los puntos
de muestreo, empleando en cada caso todos los puntos restantes.
De esta forma, obtenemos un conjunto de pares de valores con los valores reales
y estimados en cada punto, que podemos mostrar en una gráfica como la de la
figura 13.13. De igual modo, podemos efectuar un análisis de regresión y obtener la
expresión de la recta de ajuste, el coeficiente de correlación de esta o el residuo medio
cuadrático. El valor representativo en este caso, no obstante, es la propia expresión
de la función. En caso de un ajuste perfecto, la recta debe ser de la forma y = x,
por lo que resulta interesante representar esta recta ideal para poder comparar.
Valores observados
Valores predichos
13.3. Densidad
Además de los métodos de interpolación, hay otro tipo de operaciones que
pueden realizarse sobre capas de puntos, y que dan como resultado capas ráster.
Supongamos el siguiente caso. Se tiene una capa de puntos como la de la
figura 13.15 que indica los registros de observación de una determinada especie.
Si queremos crear un mapa de densidad de individuos, nos encontramos en un
caso similar al que implica la interpolación: la carencia de datos a lo largo de todo
Creación de capas ráster 333
Figura 13.14: Esquema del cálculo de densidades utilizando un área de influencia fija.
Figura 13.15: Capas de densidad a partir de una capa de puntos. El tamaño del radio
de influencia en (b) es el doble que en (a).
Figura 13.16: Comparación entre una función núcleo constante (en trazo punteado) y
un núcleo gaussiano (en trazo continuo) para un radio de influencia r = 2.
Como puede observarse comparando las figuras 13.15 y 13.17, la diferencia entre
el uso de uno u otro núcleo es notable, pero la utilización de radios distintos, indepen-
dientemente del método empleado, da lugar a resultados muy diferenciados. El radio
de influencia máxima es, pues, el parámetro más importante en la estimación de den-
sidades, y debe seleccionarse de acuerdo con la distribución de los puntos muestrales.
Creación de capas ráster 335
Figura 13.17: Capas de densidad a partir de una capa de puntos mediante nucleo
gaussiano. El tamaño del radio de influencia en (b) es el doble que en (a).
Figura 13.18: Esquema del cálculo de densidades utilizando un área de influencia fija
y ponderación según valores. El punto inferior derecho tiene un peso p = 2, mientras que
el superior izquierdo un peso p = 1.
Álgebra de mapas
En este capítulo veremos en qué consiste el álgebra de mapas, el cual contiene el conjunto
de procedimientos que nos permiten analizar capas ráster y extraer información a partir de
ellas. Es importante, por lo tanto, que conozcas bien las particularidades del formato ráster
y estés familiarizado con los conceptos propios de este modelo de representación espacial.
Además del álgebra de mapas como tal, veremos algunos ejemplos de análisis para
mostrar el aspecto práctico de cuanto se detalla a lo largo del capítulo. Estos ejemplos no son
estudiados aquí en profundidad, ya que serán descritos de forma más extensa en sucesivos
capítulos. Por ello, no debes preocuparte si no comprendes completamente los procesos
descritos, sino tan solo la base conceptual del álgebra de mapas sobre la que se sustentan.
14.1. Introducción
La información contenida en las capas es susceptible de ser analizada para la
obtención de otras capas referentes al mismo espacio geográfico, pero que contengan
distinta información derivada de aquella. El álgebra de mapas es el conjunto de
procedimientos y métodos que permiten llevar a cabo dicho análisis y extraer
nuevos valores a partir de los contenidos en una o varias capas. En este capítulo
revisaremos las bases e ideas fundamentales del álgebra de mapas, que nos ayudaran
a comprender todos los restantes procesos que se construyen sobre sus conceptos.
Se entiende por álgebra de mapas 1 el conjunto de técnicas y procedimientos
que, operando sobre una o varias capas en formato ráster, nos permite obtener
información derivada, generalmente en forma de nuevas capas de datos. Aunque
nada impide que este proceso se lleve a cabo sobre capas vectoriales, se entiende
que el álgebra de mapas hace referencia al análisis desarrollado sobre capas ráster,
pues estas, por su estructura regular y sus características inherentes, son mucho
más adecuadas para plantear los algoritmos y formulaciones correspondientes. Los
procedimientos que se aplican sobre información geográfica en formato vectorial
son por regla general clasificados dentro de otros bloques de conocimiento, como es
1
Aunque esta denominación es la original y más extendida, puede dar lugar a malentendidos.
No debe confundirse aquí la idea de mapa y pensar que hablamos de un documento cartográfico
en su sentido clásico, sino que hablamos de capas, y en particular de capas ráster. Sería más
correcto hablar de un álgebra de capas ráster, pero se mantiene por costumbre el uso de álgebra
de mapas para definir al conjunto de técnicas que veremos a lo largo de este capítulo.
338 Sistemas de Información Geográfica
ción se van a repetir de forma continua en la mayoría de capítulos de esta parte, pues
constituyen la base formal y conceptual de los análisis que siguen en dichos capítulos.
Para comenzar el estudio del álgebra de mapas, veamos unos casos prácticos
que nos servirán para introducir con posterioridad los elementos básicos. En primer
lugar, consideremos la siguiente expresión, que define la bien conocida Ecuación
Universal de Pérdidas de Suelo (USLE) [190]
Figura 14.1: Puede extenderse una formula algebraica tal como la de la Ecuación
Universal de Pérdidas de Suelo (USLE) a un conjunto de capas. Basta operar celda a
celda con las capas que contienen las variables implicadas, para obtener una nueva capa
resultante con el conjunto de valores calculados.
La base conceptual en este caso vemos que es distinta al primer supuesto, ya que
no extendemos ningún modelo puntual aplicándolo en todas las celdas con distintos
valores de entrada para cada una de ellas, sino que estas van a contener un valor
medio asociado al total de celdas incluidas en su misma subcuenca. Esta forma de
proceder ya no se corresponde con el caso anterior y no puede ser llevada a cabo
con las funcionalidades de calculadora de mapas que citábamos como habituales
en los SIG, ya que no se da un análisis entre capas celda a celda, sino un análisis
dentro de la propia capa con otras celdas relacionadas a través de esa pertenencia
a la misma unidad hidrológica. No obstante, como veremos, este tipo de funciones
también forman parte del álgebra de mapas.
Todos estos ejemplos son parte de los resultados que pueden obtenerse utilizando
los distintos componentes del álgebra de mapas, que a continuación detallaremos.
Álgebra de mapas 341
Figura 14.3: Las funciones de análisis local analizan los valores de una celda concreta en
una serie de capas para obtener el valor resultante. En rojo, celdas de partida analizadas.
En verde, celda que recoge el resultado.
342 Sistemas de Información Geográfica
Las funciones locales son las que utilizamos cuando empleamos esa anterior-
mente citada aritmética de mapas, tal y como veíamos por ejemplo en el caso
de la USLE. Aunque otro tipo de funciones también operan con varias capas, la
combinación de una serie de ellas suele llevarse a cabo con funciones locales, que
calculan los valores para cada punto de acuerdo con los valores de dichas capas en
ese punto. El ejemplo de la USLE es una función sumamente sencilla, que tan solo
multiplica las capas de partida, pero pueden elaborarse funciones más complejas
utilizando todos los operadores disponibles, que estudiaremos más adelante.
Una función de tipo local puede ser también aplicada sin necesidad de tener
una serie de capas, sino con una única capa de partida. Por ejemplo, un cambio
de unidades es una función local, ya que cada uno de los valores expresados en las
unidades de destino solo depende del valor expresado en las unidades de origen
en cada propia celda. Si una capa conteniendo elevaciones expresadas en metros
la multiplicamos por 100, obtenemos una nueva capa con valores de elevación en
centímetros, habiendo aplicado una función local para realizar la conversión.
De igual modo, convertir los valores de una capa de pendientes de radianes
a grados requiere multiplicar sus valores por 180/π.
Además de operar con escalares, podemos aplicar también funciones matemáti-
cas. Por ejemplo, las capas que presentan un gran coeficiente de variación (elevada
varianza en relación a la media de los valores de la capa) muestran mucha más infor-
mación si aplicamos una transformación logarítmica. En la figura 14.4 vemos una ca-
pa de área acumulada a (este concepto hidrológico se explicará en el apartado 15.6.3)
junto a otra que representa el parámetro log(a), apreciándose claramente la diferen-
cia entre ambas en cuanto a la riqueza de información visual que aportan. Esta trans-
formación logarítmica es, claramente, una función local dentro del álgebra de mapas.
Si en lugar de convertir la anteriormente citada capa de pendientes de radianes
a grados como mencionábamos, queremos convertirla en porcentaje, en este caso
no es una operación con un escalar lo que debemos llevar a cabo, sino aplicar la
función matemática tan(x), también como una función local de álgebra de mapas.
Una aplicación común de una función local con una sola capa la encontramos
en la normalización de valores. En ocasiones, antes de efectuar un proceso que
englobe a varias capas (por ejemplo, otra función de análisis local pero multicapa),
es necesario homogeneizar estas de modo que todas se hallen en un mismo rango de
valores. Este proceso se denomina normalización. Es habitual que el rango común
sea el intervalo (0,1), para lo cual se aplica a cada capa la función local definida
por la siguiente expresión:
xij −xmin
yij = (14.2.1)
xmax −xmin
donde yij es el valor normalizado en la celda ij, x el valor de esa celda en la capa
inicial y xmin y xmax , respectivamente, los valores mínimo y máximo de la variable
en el conjunto de celdas de la capa.
Álgebra de mapas 343
55%
4
3
2
0% 1
Figura 14.5: Mediante una función local de reclasificación, podemos convertir una capa
de valores continuos en una capa de clases con información discreta.
344 Sistemas de Información Geográfica
donde aparece ese valor mayor, o el numero de capas con valores iguales a uno
dado. La figura 14.7 muestra algunos ejemplos simples basados en estas ideas.
1 3 2 4 3 1 4 6 6
1) 3 5 2 2) 8 9 5 3) 5 5 8
4 4 7 5 4 5 4 4 5
4 3 ND 4 6 6 ND 3 3
a) ND 5 ND b) 8 9 8 c) 3 2 3
4 4 5 5 4 7 2 ND 1
Figura 14.7: Algunos ejemplos sencillos de análisis local estadístico con múltiples capas.
En la fila superior, capas de origen y su numeración correspondiente. En la inferior, de
izquierda a derecha: valor máximo, valor más frecuente (mayoría), y capa de máximo
valor. ND indica celdas sin datos en las cuales no puede establecerse un valor resultante
por no estar este bien definido.
Figura 14.8: Combinación de dos capas categóricas para crear una nueva clasificación
que une ambas.
Para efectuar esta intersección, debemos en primer lugar reclasificar las capas
de inicio de tal modo que un valor en la capa resultante defina unívocamente una
única combinación de estas. Después, operaremos con las capas reclasificadas,
eligiendo un operador que nos permita mantener esa correspondencia biunívoca
entre pares de valores de origen y valor resultante.
Una forma de hacer esto, suponiendo un número de clases m en la primera
clase y n en la segunda, es reclasificar la primera de ellas mediante la expresión
Para ver un ejemplo que sea manejable, en la figura 14.9 se muestran dos capas
con su valores originales, las capas reclasificadas según el esquema anterior, y la
capa resultante. Para interpretar esta última, la tabla 14.1 muestra el esquema de
reclasificación y la tabla 14.2 explica el significado de los valores de la capa obtenida.
Los SIG más comunes incorporan entre sus elementos funciones que simplifican
este proceso y hacen innecesario operar de este modo, por lo que no es probable
que apliques estos razonamientos manualmente. No obstante, resulta de interés el
mostrar estas técnicas para estimular y desarrollar la capacidad de razonar espacial
y numéricamente en base a los conceptos del álgebra de mapas, conociendo estos
con detalle.
Como ya se dijo en el capítulo introductorio de esta parte, la combinación y
superposición de capas es una de las tareas más comunes dentro de un SIG. Por
ello, veremos en próximos capítulos cómo también puede llevarse a cabo con capas
348 Sistemas de Información Geográfica
Figura 14.10: Recorte de una capa empleando una mascara con celdas sin datos. La rampa
de colores se ha variado en la capa recortada para ajustarse al nuevo rango de valores de esta.
Figura 14.11: Las funciones de análisis focal analizan los valores de una celda y las
situadas en un entorno de esta para obtener el valor resultante. En rojo, celdas de partida
analizadas. En verde, celda que recoge el resultado.
A diferencia de las funciones locales, las focales no se aplican sobre varias capas,
ya que la información necesaria se extrae de la vecindad de cada celda, dentro de
la propia capa de partida.
Las funciones focales más habituales emplean un entorno cuadrado 3×3 centra-
do en la celda, que se va desplazando por la capa de tal modo que todas las celdas van
siendo designadas como celdas centrales, y un nuevo valor es calculado para ellas.
Este entorno de celdas a considerar se denomina frecuentemente ventana de análisis
350 Sistemas de Información Geográfica
Para definir las operaciones sobre esta ventana, es frecuente introducir una
notación como la siguiente con el fin de simplificar las expresiones.
z1 z2 z3
z4 z5 z6
z7 z8 z9
Figura 14.13: Algunos de los tipos de ventana de análisis más comunes en distintos
tamaños. a) cuadrada, b) circular
Pn
zi ki
y = Pi=1
n ; ki ∈ R (14.2.6)
i=1 ki
que el número de celdas a analizar es mayor. Por otro, el resultado puede diferir
notablemente, y es necesario tener en cuenta el significado del parámetro a calcular
para establecer unas dimensiones correctas —dimensiones en unidades reales, no
en número de celdas— de la ventana. La figura 14.14 muestra cómo el efecto de un
filtro de media, el cual produce un desenfoque de la imagen, se hace más patente
a medida que empleamos ventanas de análisis mayores.
En [194] puede encontrarse información adicional sobre la noción de escala de
análisis —especialmente para el caso de análisis del terreno— y otros conceptos
íntimamente relacionados con la elección de un tamaño de ventana. En el apartado
15.8 veremos un análisis particular en el que la elección del tamaño de ventana
es particularmente importante.
a) b) c)
Figura 14.14: Resultados de un filtro de mediana sobre una imagen para distintos
tamaños de ventana. a) 5×5, b) 10×10 c) 20×20
sino tomar una porción adicional alrededor para que estos efectos de borde no
tengan influencia sobre nuestro estudio.
Figura 14.16: Las funciones de análisis zonal analizan los valores de todas las celdas
asociadas a una misma clase cada para obtener el valor resultante. En rojo, celdas de
partida analizadas. En verde, celda que recoge el resultado.
valores continuos o discretos, y extraer de esta segunda los valores a utilizar para
definir el valor representativo de cada clase. Ese es el caso del ejemplo propuesto al
principio del capítulo, donde se utiliza el mapa de pérdidas de suelo para asignar
los valores correspondientes a cada subcuenca. En este caso, como resulta evidente,
las clases vienen definidas por las subcuencas.
La definición del conjunto de celdas relacionadas con una dada puede realizarse
de dos formas distintas (Figura 14.17):
Todas las celdas con el mismo valor que la celda problema, conectadas por
contigüidad con esta.
Todas las celdas con el mismo valor que la celda problema presentes en la
capa, con independencia de su conexión.
Figura 14.17: Formas de definir las clases para el análisis zonal. En verde, celda de
análisis. En rojo, celdas a considerar en su misma clase para ser empleadas en el cálculo.
a) asignación por valor con contigüidad, b) asignación únicamente por valor.
En el caso de las pérdidas por subcuencas, calculábamos con los valores del
conjunto de celdas pertenecientes a cada clase su media aritmética, pero pueden
aplicarse igualmente diversos descriptores estadísticos o funciones más complejas,
al igual que ya vimos en los otros tipos de funciones.
Los valores a asignar a cada clase pueden extraerse también de la propia capa
de clases, no siendo necesaria otra capa. En este caso, estos valores resultantes
suelen tener relación no con un parámetro adicional, sino con la geometría de cada
clase. Por ejemplo, la superficie o el perímetro de cada tesela pueden recogerse
como valores asociados a esta.
Este es un tipo análisis muy frecuente en el estudio del paisaje, y el número de
parámetros que pueden obtenerse por análisis zonal a partir de una única capa de
clases es muy elevado. Junto a parámetros sencillos como la citada superficie o el
perímetro, otros parámetros más complejos pueden servir para recoger la configura-
ción estructural de las teselas, su riqueza y variabilidad, la fragmentación, etc [195].
Álgebra de mapas 355
Figura 14.18: Las funciones de análisis global analizan el conjunto de valores de una
capa para obtener un valor resultante, que puede ser tanto un objeto geográfico (capa
ráster o vectorial) como un valor escalar sencillo, una tabla u otro tipo de resultado.
Por ejemplo, los valores máximo y mínimo de la capa que son necesarios para
normalizar esta se obtienen mediante una función global. Asimismo, el cálculo de
un perfil entre dos puntos o el trazado de una ruta óptima sobre una superficie
de coste acumulado (que veremos en el apartado 19.4) son ejemplos de funciones
globales que generan un resultado distinto de un mero valor numérico.
Figura 14.19: Dada una ruta y una capa, podemos obtener un perfil de valores a lo largo
de la ruta mediante una función global.
capítulo 13, con la diferencia de que en este caso los puntos con datos no están
distribuidos irregularmente sino de forma regular en una malla, con lo que podemos
dar una expresión para la función interpolante en función de las celdas de origen
situadas entorno a la coordenada en la que queremos calcular el nuevo valor (la
del centro de cada celda en la capa remuestreada).
Los métodos más habituales de remuestreo son los siguientes:
Por vecindad. Como ya vimos, no se trata en realidad de una interpolación
como tal, pues simplemente crea la nueva malla situando nuevas celdas cuyos
valores se calculan por mera vecindad, tomando el de la celda más cercana.
Bilineal. Para una celda (i0 ,j 0 ) en la nueva malla interpolada, su valor en
función de los de las 4 celdas más cercanas a la misma en la malla original
viene dado por la expresión.
1
R(x) = ((x+2)3+ −4(x+1)3+ +6(x)3+ −4(x−1)3+ ) (14.3.4)
6
siendo (
xm si x > 0
(x)m
+= (14.3.5)
0 si x ≤ 0
Los métodos de remuestreo son un área muy desarrollada en el tratamiento
de imágenes digitales, aunque, en la práctica, la mayoría de algoritmos existentes
no presentan una diferencia notable con los anteriores (excepto con el remuestreo
por vecindad) a la hora de aplicarlos sobre capas ráster de variables continuas en
358 Sistemas de Información Geográfica
Figura 14.20: El remuestreo de capas categóricas solo puede llevarse a cabo por vecindad.
a) capa original, b) remuestreo por vecindad, c) remuestreo mediante splines (incorrecto,
con valores incoherentes)
14.5. Resumen
El álgebra de mapas nos proporciona las herramientas necesarias para analizar
capas ráster y obtener de ellas resultados derivados. Bien sea a partir de una capa,
de dos, o de una batería de ellas, las funciones del álgebra de mapas definen un
marco formal de procesos dentro del cual desarrollar los más diversos análisis.
Distinguimos cuatro tipos básicos de funciones: locales, focales, zonales y globales.
De cada uno de ellos veremos numerosos ejemplos de aquí en adelante, ya que
constituyen la base conceptual sobre la que se construyen la práctica totalidad de
algoritmos de análisis de capas ráster. Estas funciones han de ir unidas a un manejo
adecuado de las variables de entrada (las capas ráster), así como a una serie opera-
dores que se aplican sobre las celdas que cada función define como objeto de análisis.
Capítulo 15
A lo largo de este capítulo estudiaremos aquellas formulaciones que tienen que ver
con los Modelos Digitales de Elevaciones como capa base de análisis. En primer lugar,
estudiaremos con más detalle el MDE como fuente básica de información, la forma de
crearlo, sus características propias y la forma de prepararlo para el análisis. Después,
veremos como extraer información a partir de él.
Para estudiar este capítulo deberás tener un buen entendimiento del álgebra de mapas,
ya que sus fundamentos se aplican de forma intensa en todos los análisis que vamos a ver, y
se da por supuesto que los conoces suficientemente. De igual modo, un cierto conocimiento
sobre hidrología de superficie te servirá para comprender mejor la segunda parte del capítulo,
aunque en este caso se dan breves explicaciones de los conceptos hidrológicos básicos.
15.1. Introducción
Si es cierto que una inmensa parte de la información que manejamos es suscepti-
ble de ser georreferenciada, y ello justifica la necesidad de los SIG como herramien-
tas, no es menos cierto que, de los procesos que estudiamos en un SIG, la gran mayo-
ría requieren un conocimiento exhaustivo de la superficie sobre la que se desarrollan.
Puesto que las actividades humanas se asientan en su práctica totalidad sobre la su-
perficie terrestre, estudiar cualquier fenómeno asociado a ellas sin tener en cuenta es-
ta implica estar dejando fuera una gran cantidad de información sumamente valiosa.
Este hecho concede por sí solo importancia a este capítulo, pues todas las disci-
plinas hacen uso de uno u otro modo de los resultados que en él veremos. Asimismo,
justifica el hecho de que el Modelo Digital de Elevaciones (MDE) sea, con toda
probabilidad, la capa de mayor importancia de cuantas podemos incorporar a
cualquier análisis, ya que no solo su ámbito de utilidad es amplísimo, sino que, como
veremos, el número de resultados que podemos obtener de su análisis es igualmente
variado y abundante. De este modo, su versatilidad es tal que en prácticamente
todas las situaciones será de interés el incorporar a un proceso de análisis bien el
MDE directamente o bien alguna de las múltiples capas derivadas de este.
El estudio del terreno y la parametrización de sus características es, por tanto,
pieza fundamental del análisis geográfico. La disciplina encargada de llevar a cabo es-
te análisis es la geomorfometría, la cual se define como la «ciencia del análisis cuanti-
tativo del relieve» [200, 201, 202]. La geomorfometría es una ciencia multidisciplinar
con base en la geología, la geomorfología, la topografía, la matemática y otras muy
362 Sistemas de Información Geográfica
gital de elevaciones, estos vienen motivadas por el empleo de dos términos distintos:
Modelo Digital de Elevaciones (MDE) y Modelo Digital del Terreno (MDT).
Dentro de este texto consideraremos que un MDT es una «estructura numérica
de datos que representa la distribución espacial de una variable cuantitativa y
continua» [203], mientras que un MDE es un caso particular dentro de los MDT
en el cual la variable recogida es la elevación.
El concepto de MDT, como vemos, es más genérico y no ha de guardar relación
alguna con el relieve, puesto que, atendiendo a la definición anterior, podemos
recoger variables tales como temperatura o la humedad en un punto dado, y hacerlo
mediante un MDT. Tendríamos, por ejemplo, un Modelo Digital de Temperaturas.
Expresado de otro modo, el MDT no es sino una capa con información continua
como por ejemplo la relativa a elevaciones, aunque pudiendo recoger cualquier
otra variable con esas características.
El empleo de la palabra terreno da lugar a que, con frecuencia, MDT y MDE sean
empleados erróneamente como sinónimos en el uso diario de capas de elevaciones e
incluso en el ámbito más científico. En otros casos, por el contrario, sí se especifica
una diferencia entre ambos conceptos, aunque esta no coincide con lo anterior.
Algunos autores consideran que tanto el MDT como el MDE tienen relación con
la elevación pero, mientras que el MDT recoge la elevación máxima en cada punto,
incluyendo los elementos presentes tales como edificios, arboles, etc., el MDE recoge
la información de la superficie sin tener esto en cuenta, en algo que podríamos de-
nominar un Modelo Digital de la Superficie. Esta interpretación es más habitual en
lengua inglesa, aunque las acepciones también varían e incluso llegan a ser completa-
mente contrarias, asignando al MDE las características del MDT y viceversa [204].
Aunque no han de ser necesariamente recogidos en formato ráster, los MDE gene-
ralmente se entienden por definición como entidades ráster e incluso algunos autores
así lo reflejan explícitamente. Para [177], por ejemplo, un MDE es «una representa-
ción matricial regular de la variación continua del relieve en el espacio». Al igual que
ya vimos en el capítulo 14 para el caso del álgebra de mapas genérico, la estructural
regular de una malla ráster favorece la implementación de algoritmos de forma efi-
ciente y sumamente más sencilla. Los algoritmos de análisis geomorfométrico no son
una excepción a esto, y las formulaciones para capas ráster son mucho más abundan-
tes que las basadas en otros modelos de almacenamiento, existentes de igual modo.
Junto a la información desarrollada en el capítulo 5 acerca de los distintos
modelos de representación espacial, podemos ampliar esta y ver cómo dichos
modelos se adaptan de modo particular a la representación del relieve.
Los formatos vectoriales tales como la representación mediante curvas de nivel
son menos adecuados, ya que, como se dijo, no son óptimos para recoger variables
de tipo continuo. Aunque interesantes para representar visualmente superficies
continuas, no lo son tanto para su análisis, y las formulaciones existentes a este
respecto dentro del análisis geomorfométrico son pocas.
Las redes de triángulos irregulares (TIN) son una forma mejor de recoger el
364 Sistemas de Información Geográfica
z = f (x,y) (15.4.1)
donde x e y representan las coordenadas respectivas en los ejes x e y del plano hori-
zontal, y z la elevación en el punto definido por dichas coordenadas. De existir una
función como esta y poder disponerse de una expresión explícita de ella, contendría
en sí toda información del MDE. Sin embargo, parece lógico pensar que, como ya se
menciono al tratar el ajuste de funciones como método de interpolación, las formas
naturales del relieve no son definibles con dicha sencillez dada la complejidad de este.
Para poder dar una caracterización matemática al MDE debemos hacerlo
localmente, utilizando una función distinta para cada celda. Acudiendo a los
conceptos del álgebra de mapas, emplearemos una función de análisis focal que,
dada una celda, toma un entorno reducido de esta y describe dicho entorno con
368 Sistemas de Información Geográfica
rx2 ty 2
z= +sxy+ +px+qy+z0 (15.4.3)
2 2
Con seis parámetros que calcular, la ventana habitual 3×3, con nueve valores,
es suficiente para llevar a cabo un ajuste por mínimos cuadrados. Empleando la
notación introducida en 14.2.2 para dicha ventana, los valores de los parámetros
quedan determinados de la siguiente forma:
rx2 ty 2
z = Ax2 y 2 +Bx2 y+Cxy 2 + +sxy+ +px+qy+D (15.4.5)
2 2
Esta función, ajustada mediante polinomios de Lagrange, sí garantiza que la
superficie pase exactamente por los puntos de la ventana de análisis.
En este caso, los valores de los coeficientes son los siguientes:
Geomorfometría y análisis del terreno 369
z6 −z4
p = (15.4.6)
2∆s
z2 −z8
q =
2∆s
z4 +z6 −2·z5
r =
∆s2
−z1 +z3 +z7 −z9
s =
4∆s2
z2 +z8 −2z5
t =
∆s2
(z1 +z3 +z7 +z9 )−2(z2 +z4 +z6 +z8 )+4·z5
A =
4∆s4
(z1 +z3 −z7 −z9 )−2(z2 −z8 )
B =
4∆s3
(−z1 +z3 −z7 +z9 )−2(z6 −z4 )
C =
4∆s3
D = z5
del terreno, por lo que la ventana de análisis viene condicionada al modelo escogido.
En realidad, una vez establecida la función que define localmente la superficie del
MDE, hacemos uso directo de su expresión, motivo por el cual, según sea el modelo,
se usarán unos u otros valores de los pertenecientes a la ventana de análisis.
∂z ∂z
∇Z = , (15.5.1)
∂x ∂y
Dado un campo escalar tal como el representado por el MDE, el gradiente es un
campo vectorial orientado en la dirección en la que el campo escalar experimenta
una mayor variación.
Las dos propiedades principales que podemos obtener del gradiente son dos: su
longitud o módulo y su dirección. Estas propiedades, considerando la interpretación
geomorfométrica que le damos por calcularse a partir del MDE, constituyen dos
de los parámetros más importantes que pueden extraerse de este: la pendiente y
la orientación.
La pendiente refleja la variación máxima de la elevación y se define en función
del gradiente como
s = arctan(|∇Z|) (15.5.2)
Este valor representa el ángulo entre el plano horizontal y el tangencial a la
superficie en el punto considerado. Este último queda definido por el gradiente,
Geomorfometría y análisis del terreno 371
que es normal al mismo. El horizontal es, a su vez, normal a la curva de nivel que
pasa por el punto.
La pendiente obtenida de la expresión anterior viene expresada en unidades
angulares tales como radianes o grados, aunque es habitual hacerlo en porcentaje.
Para ello, utilizamos la expresión
s = tan(s)·100 (15.5.3)
Si utilizamos el modelo matemático de [19], derivando la expresión dada
obtenemos:
2 2
∂z ∂( rx2 +sxy+ ty2 +px+qy+z0 )
≈ = rx+sy+p (15.5.4)
∂x ∂x
2 2
∂z ∂( rx2 +sxy+ ty2 +px+qy+z0 )
≈ = ty+sx+q (15.5.5)
∂y ∂y
El valor que buscamos es el de la celda central, que representa el origen de
coordenadas. Por tanto, x = y = 0, y según 15.4.4 tenemos que
∂z ∂z
p= ; q= (15.5.9)
∂x ∂y
Y según 15.4.6
∂z z6 −z4
= (15.5.10)
∂x 2∆s
∂z z2 −z8
= (15.5.11)
∂y 2∆s
Como ejemplo, el mapa de pendientes resultante de utilizar esta última for-
mulación puede verse en la figura 15.1.
Podemos expresar ambas formulaciones como el resultado de convoluciones
(ver 14.2.2), mediante un núcleo. Por ejemplo, las parciales según la metodología
de [19] se corresponden con los núcleos siguientes:
372 Sistemas de Información Geográfica
A
A0 = (15.5.12)
cos(s)
La simplicidad de la fórmula, sin embargo, hace que, por regla general, el área
quede sobreestimada [218], al contrario que en el caso de utilizar directamente
el área planimétrica. [219] propone como alternativa el utilizar el conjunto de
triángulos tridimensionales que se establecen entre la celda central y cada una
de las adyacentes, y sumar las áreas de todos ellos. De este modo, se obtiene una
aproximación más realista.
Junto con la pendiente, la orientación es el otro parámetro básico que calculamos
a partir del gradiente. Esta queda definido como [220]:
q p
a = 180−arctan +90 (15.5.13)
p |p|
siendo p y q las derivadas parciales en las dos direcciones x e y, según la notación
que venimos empleando.
El resultado viene expresado en grados sexagesimales. Se considera por con-
vención que el Norte marca la orientación cero, aumentando los valores en sentido
horario.
La formula anterior no se encuentra definida en aquellas celdas para las cuales
∂z/∂y = 0. [221] propone utilizar en su lugar la siguiente fórmula:
a =−90·[1−sign(q)]·[1−|sign(p)|]
180
+180·[1+sign(p)]− ·sign(p) (15.5.14)
π
−q
·arccos p 2 2
p +q
la naturaleza circular del parámetros. Nótese como en la figura 15.2 la escala de colo-
res también es circular, de tal modo que el valor máximo (360) tiene asociado el mis-
mo color que el mínimo (0), ya que en realidad representan una misma orientación.
Tanto la orientación como pendiente pueden representarse de modo simultaneo
no como una capa nueva de valores, sino mediante elementos vectoriales (líneas)
que representen el gradiente, las cuales pueden acompañar a la propia capa de
elevaciones a partir de la cual se calculan (Figura 15.3). Es de interés reseñar que,
aunque la pendiente y la elevación son habitualmente aplicadas a una capa de
elevaciones como todos los restantes parámetros que vemos en este capítulo, no ha
de limitarse su aplicación a estas. Para cualquier otra variable de la cual queramos
ver cómo varía en el espacio, ambos parámetros son perfectamente aplicables.
Como veremos más en detalle en las próximas secciones, la orientación tiene
relación directa con el comportamiento de los flujos sobre el terreno y sirve por
tanto para el análisis hidrológico. Los análisis que veremos son de tipo regional,
aunque la orientación puede usarse también en análisis focales para definir pará-
metros relacionados con el comportamiento hidrológico, tales como el índice de
convergencia [223]. Una representación de este índice se encuentra en la figura 15.4.
Otro de los usos habituales de los MDE es el relativo a la insolación. Tradi-
cionalmente, la propia orientación se ha utilizado para evaluar si una zona se
encuentra situada en solana o en umbría. Con la mayor potencia que el cálculo
basado en un MDE nos brinda, podemos obtener resultados más precisos.
Una primera aproximación mediante un modelo sencillo se obtiene combinando
los valores de orientación y pendiente en los denominados relieves sombreados.
Estos mapas intentan reflejar la topografía del MDE de forma más realista, consti-
Geomorfometría y análisis del terreno 375
Figura 15.3: Representación del gradiente mediante elementos lineales. Para una mejor
interpretación se han añadido curvas de nivel cada 10 metros.
tuyendo además representaciones muy intuitivas. Por esta razón, se han empleado
para resaltar otros mapas y enriquecerlos visualmente [214], tal y como puede
verse en la figura 15.5. Empleando transparencias, puede reflejarse en una única
imagen la información de una capa ráster y el relieve subyacente.
Para una posición dada del Sol definida por su azimut φ y su elevación sobre
el horizonte θ, la insolación sobre una celda de pendiente s y orientación a viene
expresada por la ecuación [224]:
100tan(s) sin(θ)
F=q −cos(θ)sin(φ−a) (15.5.16)
1+tan2 (s) tan(s)
376 Sistemas de Información Geográfica
Figura 15.5: Utilización de una capa de relieve sombreado para mejorar la visualización
de una imagen aérea
Figura 15.6: Zonas en sombra (a) frente a zonas bajo insolación (b), por comparación
entre el perfil del terreno y la línea de visión entre la celda problema y el Sol.
E = E0 (1+0,034cos(360d/365)) (15.5.17)
E 0 = Eτ Mh (15.5.18)
Mh = M0 C p (15.5.19)
siendo
q
M0 = 1229+(614sinα2 )−614sinα (15.5.20)
5,256
228−0,0065h
Cp = (15.5.21)
288
E 00 = E 0 cosα (15.5.22)
378 Sistemas de Información Geográfica
X S
De entre los planos que pueden tomarse, algunos aportan más información que
otros. Los planos normales a la superficie que son paralelo y normal a la curva
de nivel (mutuamente ortogonales) resultan de especial interés. Estos definen,
respectivamente, las curvaturas denominadas horizontal y vertical.
Figura 15.8: La curvatura es el inverso del radio (1/R) del círculo que ajusta a la curva
en un punto dado. Por convención, es positiva en el caso convexo (R2 > 0) y negativa
en el concavo (R1 < 0).
−p2 ·r+2pqrs+q 2 t
kv = p (15.5.28)
(p2 +q 2 ) (1+p2 +q 2 )3
Por convenio, las zonas convexas tienen curvatura negativa y las cóncavas
curvatura positiva.
En el caso de valores convexos de curvatura vertical, estos indican un aumento en
la pendiente según se sigue la linea de máxima inclinación. Puesto que esta es la línea
que marca la dirección del agua al fluir, las zonas con curvatura vertical convexa
se corresponden con aquellas en las que el agua experimentaré una aceleración.
Por el contrario, si esta curvatura es cóncava, el agua tenderá a decelerarse. Las
zonas con curvatura vertical cóncava son zonas con tendencia a acumular agua.,
Para la curvatura horizontal, se tiene [228]:
q 2 r−pqs+p2 t
kh = − p (15.5.29)
(p2 +q 2 ) 1+p2 +q 2
La interpretación del significado de esta curvatura podemos realizarla de modo
similar al caso anterior, en esta ocasión considerando que la sección normal es
perpendicular a la linea de máxima pendiente. Una curvatura horizontal convexa
representa una zona en la que el flujo tiende a dispersarse, mientras que si es
cóncava el flujo tiende a concentrarse, ya que las lineas de flujo convergen.
Junto a estas dos curvaturas más habituales y utilizadas, existen otras también
estudiadas en la literatura, si bien con menos aplicación directa por el momento.
[224] propone un sistema de 12 curvaturas básicas, incluyendo las anteriores:
Curvatura horizontal
Curvatura vertical
Curvatura media
Curvatura máxima
Curvatura mínima
Curvatura de anesfericidad
Diferencia de curvatura
Exceso de curvatura vertical
Exceso de curvatura horizontal
Geomorfometría y análisis del terreno 381
Curvatura de acumulación
Curvatura total acumulada
Curvatura total anular
Rotor (curvatura de las lineas de flujo)
A cada uno de estos parámetros puede asignársele una interpretación geomor-
fométrica, aunque el uso práctico no es frecuente, salvo en el caso de las curvaturas
horizontal y vertical.
De igual modo, el estudio de los parámetros geométricos podría continuarse con
las derivadas de tercer grado, aunque su aplicación práctica aún no se encuentra
bien definida. Es interesante hacer ver, no obstante, que las derivadas sucesivas son
más sensibles a los errores del MDE y propagan esta sensibilidad a los resultados
obtenidos en base a ellas [211].
Aunque hemos visto una interpretación de las curvaturas relacionada con los
flujos de superficie, estas aportan información útil sobre otros aspectos, tales como
la evolución del suelo, pues esta se encuentra directamente relacionada con el
comportamiento del agua. También pueden ser útiles, entre otros, para el estudio
de las comunidades animales, ya que pueden entenderse las zonas cóncavas como
zonas protegidas y las convexas como zonas expuestas, lo cual tiene una indudable
repercusión en el desarrollo de dichas comunidades.
Xi = sin(s)·cos(a) (15.5.31)
Yi = sin(s)·sin(a) (15.5.32)
Zi = cos(s) (15.5.33)
z5 −zi
γ= ; z = 1,...,9; i 6= 5 (15.6.1)
l
384 Sistemas de Información Geográfica
donde l representa la distancia entre los centros de las celdas entre las que se
calcula la pendiente. No se emplea aquí directamente la variable ∆s de tamaño de
celda, ya que la distancia a aplicar no es igual en las celdas situadas en la vertical o
en la horizontal√de la celda central (l = ∆s), que en las celdas situadas en diagonal
a la misma (l = 2∆s). La dirección de flujo viene definida por la celda que marca
la mayor de las pendientes.
La principal ventaja del método, su simplicidad, es también su principal defecto.
La discretización de las direcciones en múltiplos de 45◦ hace que flujos que presenten
rutas ciertamente distintas (con diferencias en orientación tan importantes como
esos mismos 45◦ ) puedan quedar englobados dentro de un misma dirección, ya que
la dirección real resulta truncada para encajar dentro de uno de los intervalos.
La aparición de segmentos rectilíneos paralelos en zonas llanas (Figura 15.10)
o la acumulación de errores en pendientes monótonas (15.9), son, entre otras,
algunas de las consecuencias indeseadas de lo anterior.
Figura 15.10: Líneas paralelas de flujo como resultado de la aplicación del modelo D8
Geomorfometría y análisis del terreno 385
15 2 30 1
p1 = 1− = , p2 = 1− = (15.6.3)
45 3 45 3
Aunque mejora al D8, este método presenta el inconveniente de su aleatoriedad,
y se encuentra raramente implementado.
Un modelo más elaborado que tiene en cuenta la divergencia de flujo es el FD8
[231], en el cual el flujo en lugar de verter hacia una única celda, se reparte entre
las circundantes. La proporción de flujo asignada a cada una de las 8 celdas vecinas
viene dada por
(tansm )x
fm = P8 x
(15.6.4)
i=1 (tansi )
positivas, esto es, que representen ángulos entre la celda central y celdas de inferior
elevación, pues es exclusivamente hacia estas hacia donde va a desplazarse el flujo.
[234] propone otra solución similar que pretende por un lado modelizar de forma
más realista la difusión del flujo, y por otro aportar una formulación más robusta.
El modelo propuesto sigue basándose en el D8, solventando el problema de la dis-
cretización de flujo en 8 direcciones únicas, y para indicarlo es bautizado como D∞.
Se considera la submalla 3 × 3 como una superficie representada por caras
triangulares , cada uno de los cuales está definido por la celda central y dos celdas
consecutivas de su entorno. Se tienen así un total de 8 de estos triángulos, cada
uno de los cuales define un plano que permite el cálculo de una pendiente asociada.
Con las pendientes de todos y cada uno de los ocho triángulos, simplemente se
tomará la mayor de todas ellas y la orientación asociada a dicho triángulo, siendo
esta la que deberá ser considerada de cara a establecer la dirección de flujo en la
celda analizada.
Resta, por último, establecer la difusión entre las dos celdas sobre las que se
sitúa el triángulo, para lo cual se aplica una sencilla proporción como la siguiente.
φb
fa =
φa +φb
φa
fb = (15.6.5)
φa +φb
siendo fa y fb las proporciones de flujo que deben asignarse a cada celda de las
anteriores, y φa y φb las diferencias angulares entre la orientación y las direcciones
marcadas por dichas celdas.
Aunque muy poco habituales, existen asimismo metodologías no basadas en el
modelo D8, en las cuales el flujo no se desplaza entre los centros de una celda y las
de su entorno, sino libremente a través de toda la celda sin restringirse a su punto
central (Figura 15.11). El modelo KRA (Kinematic Routing Algorithm)[235], de
flujo unidimensional, o el DEMON (Digital Elevation MOdel Networks) [236], de
flujo bidimensional, son ejemplo de ellos.
Otro autores como [237] proponen modelos que aplican distintas metodologías
en función de la forma del relieve en cada celda, distinguiendo entre grupos de
formas orográficas.
Zonas llanas
Sea la siguiente ventana de análisis:
Puesto que no existe pendiente entre la celda central y las circundantes, no es po-
sible asignar una dirección de flujo a la celda central. Incluso en el caso de no utilizar
el D8, tampoco sería posible, ya que otros algoritmo utilizan principios similares o
se basan en la orientación, la cual no se encuentra definida para celdas sin pendiente,
como vimos en 15.5.14. La intuición y la mera observación nos dicen, no obstante,
que el agua se desplazará a través del relieve definido por la anterior ventana.
En realidad, puede considerarse que las zonas planas son un artificio dentro de
un MDE, ya que una zona perfectamente plana no existe en la naturaleza como tal.
En general, una resolución vertical escasa, bien sea en el almacenamiento o bien
en la medición de los valores, es la causante de que estas aparezcan en el MDE.
Supongamos que la anterior ventana se encuentra dentro de un área más amplia
con los siguiente valores:
En este caso, resulta fácil intuir que el flujo se desplazará de Este a Oeste, de
las zonas de mayor elevación a las de menor. El relieve circundante contiene, pues,
información que puede utilizarse para asignar los valores dentro de la zona llana.
Existen dos formas de aplicar estas ideas para dar solución al problema:
388 Sistemas de Información Geográfica
Figura 15.12: Cálculo de dirección de flujo sobre una celda llana (en trazo grueso) como
suma vectorial de las direcciones de las celdas que vierten sobre la misma (en trazo fino).
hace que puedan asociarse a esta alternativa unas desventajas similares a las
comentadas en el método anterior.
Figura 15.13: Cálculo de direcciones de flujo sobre zonas llanas según [238]. La malla
de la izquierda representa las alturas del MDE, donde se aprecia la zona llana de elevación
1 (en gris). Las mallas sucesivas presentan las etapas del proceso iterativo de asignación
de direcciones de flujo a partir del punto de salida existente.
Depresiones
Sea la siguiente ventana de análisis:
Nos encontramos con un problema similar al anterior, ya que todas las pendien-
tes desde la celda central son positivas, y no existe ninguna dirección de flujo que
390 Sistemas de Información Geográfica
Figura 15.14: Modificación del MDE para el cálculo de direcciones de flujo sobre zonas
llanas según [239]. De izquierda a derecha y de arriba a abajo: elevaciones originales, modifi-
cación de elevaciones según los dos supuestos considerados y elevaciones finales resultantes.
En este caso, de las dos celdas de la depresión, solo una de ellas no tiene direc-
ción de flujo (de elevación 57), pero en la otra (de elevación 58) esta es incorrecta,
puesto que vierte sobre la primera y la tendencia natural del terreno es la contraria.
El proceso que tiene lugar será bien distinto, ya que el flujo rellenará la depresión
y saldrá de esta desde la celda de elevación 58 y hacia la de menor elevación de
su entorno, en este caso 59.
Las depresiones, especialmente las que están formadas por un número pequeño
de celdas o incluso una sola celda, son en general producto de los procesos de
interpolación que tienen lugar para la creación del MDE. No obstante, puede deberse
a otras razones. Distinguimos según esto los siguientes tipos de depresiones [103].
Depresiones artificiales debidas a los procesos de creación del MDT
Depresiones naturales que deben ser eliminadas, tales como lagos o embalses,
ya que en realidad estas depresiones se encuentran llenas y se produce un
flujo sobre ellas.
Geomorfometría y análisis del terreno 391
Depresiones naturales que no deben ser eliminadas, tales como las las exis-
tentes en zonas kársticas, que suponen efectivamente un impedimento para
el flujo.
El procesado del MDE debe trabajar con los dos primeros casos, ya que, inde-
pendientemente de su origen, es necesario eliminar las depresiones que, al aplicar
sobre ellas los algoritmos de flujo, no dan resultados acorde con el proceso real
que tiene lugar.
Una primera forma de eliminar las depresiones es mediante el empleo de filtros
[240]. Esta metodología, no obstante, no soluciona el problema cuando las depre-
siones son de varias celdas, y además modifica la totalidad del MDE, incluyendo
las celdas correctas que no forman parte de las depresiones.
Las metodologías más elaboradas tratan de simular el verdadero comporta-
miento del agua, que llena la depresión hasta una altura fija igual en todas las
celdas, y vierte así fuera de esta. Autores como [240] suponen que la presencia de
una depresión es debida a un error en los valores de elevación, siendo este error
siempre por defecto. Es necesario en este caso, por tanto, elevar dichos valores.
Otros como [241] adoptan el enfoque anterior, pero añaden al mismo una posibi-
lidad totalmente opuesta, esto es, que la depresión sea debida a una estimación exce-
siva de la altura de una celda. Esto provoca que dicha celda (o celdas) actúen a modo
de dique, obstruyendo el desplazamiento del flujo a lo largo de las celdas erróneas. La
solución en este caso contempla de igual modo la disminución de la cota en aquellas
celdas donde se presenten estas características, «abriendo» caminos para el flujo.
Al aplicar alguno de los algoritmos anteriores, obtenemos sobre la depresión
una zona plana de cota fija, suficiente para que el flujo pueda conducirse fuera de
esta con los algoritmos habituales. El MDE resultante puede modificarse nueva-
mente aplicando los algoritmos ya explicados para la eliminación de zonas llanas,
obteniéndose así un nuevo MDE ya hidrológicamente correcto.
La figura 15.15 presenta un esquema comparativo de los diferentes resultados
que se obtienen mediante la aplicación de un simple llenado y de la consideración
conjunta de llenado y apertura.
[242] propone una solución con un planteamiento radicalmente opuesto. En
este caso el algoritmo trabaja «inundando» la totalidad el MDT —elevando la
cota de todo él como si hubiera un exceso de agua a lo largo de toda su extensión—
y posteriormente retirando dicha capa de agua a excepción de en las depresiones,
donde esta se queda y las llena, eliminándolas así.
La figura (15.16) muestra un sencillo esquema del funcionamiento de esta
formulación.
focal establecen relaciones entre las celdas y sus vecinas inmediatas. El área
acumulada utiliza estas relaciones, pero no en el entorno reducido de la ventana de
análisis, sino con carácter zonal, estudiando el conjunto de celdas hidrológicamente
conectadas con una dada. En particular, conectadas y situadas aguas arriba de ella.
Para una celda cualquiera, su flujo va a desplazarse por efecto de la gravedad a
una o varias (en función del método empleado) de sus celdas vecinas. Estas celdas
que reciben el flujo lo desplazaran a su vez a las inferiores, y así sucesivamente.
El área acumulada de una celda particular representa el área total de aquellas
celdas cuyos flujos, siguiendo este mecanismo, acabaran pasando por dicha celda
problema. En el caso del D8, se considera que todo el área de la celda es aportada
a la celda inferior. En los métodos de flujo bidimensional, como vimos, solo una
fracción es aportada a cada una de las inferiores.
El D8 es, por su simplicidad, el más didáctico de los métodos, y permite
comprender visualmente el concepto de este parámetro (Figura 15.17).
La diferencia entre los métodos de asignación de direcciones de flujo se ve
de forma gráfica al calcular el área acumulada empleando cada uno de ellos. La
figura 15.18 muestra los valores de área acumulada para una superficie generada
Geomorfometría y análisis del terreno 393
Figura 15.17: El área acumulada de una celda dada (en rojo) es la suma de las áreas
de las celdas conectadas con esta y situadas aguas arriba (en azul). Los trazos indican
la conectividad entre celdas según el modelo D8
artificialmente con forma de cono, calculados estos con cada uno de los métodos
explicados en 15.6.1.
D8 Rho8 FD8
Figura 15.18: Representación del área acumulada sobre un cono circular según los
principales algoritmos de asignación de direcciones de flujo (adaptado de [243])
En la figura 15.19 puede verse el mapa de área acumulada para la región del
juego de datos de ejemplo. Como se dijo en 14.2.1, el uso de una transformación
logarítmica enriquece la representación resultante.
Puede aplicarse una ponderación a las celdas, de tal forma que los valores
resultantes no expresen un área, sino otra variable distinta. Por ejemplo, puede
considerarse un valor de escorrentía para cada celda, de tal modo que se obtendría
una escorrentía acumulada.
394 Sistemas de Información Geográfica
De igual modo, pueden emplearse algunos de los parámetros que hemos desa-
rrollado anteriormente y calcular después valores medios. Un posible ejemplo
es la pendiente media aguas arriba. Esta se calcula con un mapa de pendiente
acumulada —ponderando las celdas según su pendiente—, y dividiéndolo por el
mapa de área acumulada, expresada esta en numero de celdas. Puesto que refleja la
pendiente media de las celdas que aportan flujo, este parámetro puede relacionarse
con la velocidad y energía de dichos flujos.
Empleando un enfoque similar basado en el estudio de direcciones de flujo y
conectividad hidrológica entre celdas, se obtienen otros parámetros tales como
la longitud de flujo desde aguas arriba. Este valor refleja la distancia máxima
recorrida desde cada celda hasta el punto hidrológicamente más alejado de entre los
situados aguas arriba de ella. El concepto de orden jerárquico de cauces [244, 245]
puede aplicarse a la densa red que conforman todas las conexiones entre celdas,
para obtener una nueva capa de ordenes (Figura 15.20).
Un concepto importante a la hora de calcular el área acumulada u otros pará-
metros derivados como los anteriores es el de contaminación de borde. Se dice que
una celda está afectada por contaminación de borde cuando entre aquellas celdas
que se encuentran situadas aguas arriba de esta se incluyen celdas en el borde el
MDE. Puede suceder que estas celdas de borde tengan aguas arriba de ellas otras
celdas, pero, puesto que estas no se encuentran en el MDE, no podemos conocerlas.
De esta forma, el valor de área acumulada que se obtiene para las celdas afectadas
de contaminación de borde es probable que no sea correcto.
Si tenemos un MDE de la parte baja del cauce, podemos calcular sin problemas
Geomorfometría y análisis del terreno 395
todos los parámetros morfométricos tales como pendiente, orientación, etc. Sin
embargo, los parámetros hidrológicos no serán correctos, ya que estamos ignorando
los tramos medio y alto del cauce, sin duda con influencia en el tramo bajo que
analizamos.
La figura 15.21 muestra la porción del MDE de ejemplo que ofrece datos validos
de área acumulada y otros parámetros hidrológicos. La cuenca vertiente a las
celdas mostradas no alcanza los bordes del MDE, garantizando así que se encuentra
contenida íntegramente dentro de este.
Por último, citar el concepto de área aportante específica, que se emplea para
el cálculo de índices y otros parámetros derivados. Este área específica se obtiene
dividiendo el área entre la anchura de la sección considerada (a0 = a/w), siendo
esta el ancho de celda.
Figura 15.21: MDE tras aplicar una máscara basada en contaminación de borde. Las celdas
con valores son las únicas para las que puede calcularse el área acumulada de forma fiable.
Aquellas que lo superen y cumplan los requisitos para ser celdas de cabecera, serán
utilizadas para delinear los cauce hacia aguas abajo de estas.
Aunque sabemos que la condición es de tipo mayor que, resta por establecer
un valor concreto para el umbral. Del valor escogido depende directamente la red
de drenaje resultante. Un umbral mayor hará que existan menos celdas que lo
superen, y las cabeceras se situarán en puntos más bajos. La red resultante será
menos densa. Por el contrario, si el umbral es menor, las cabeceras se situarán en
celdas más elevadas y la red sera más densa y ramificada.
La elección de un umbral debe realizarse de tal modo que la red de drenaje
coincida en la mayor medida posible con la realidad fisiográfica, tanto en la coin-
cidencia de las cabeceras con los puntos reales de nacimiento de los cauces como
en el numero de estos.
La figura 15.22 muestra dos capas con redes de drenaje extraídas aplicando
distintos valores de umbral.
Figura 15.22: Redes de drenaje extraidas para umbrales de area acumulada de 10ha
(a), 1ha (b) y 0,1ha (c)
398 Sistemas de Información Geográfica
A0 = a0 sα (15.6.6)
Figura 15.23: Identificación de celdas de valle según [251]. En cada pasada se señala la
celda más elevada de cada cuatro. Las celdas no señaladas al final del proceso constituyen
las celdas de valle.
1
Literalmente, quemar los rios sobre el MDE, ya que es como si su forma fuera marcada a
fuego sobre este.
400 Sistemas de Información Geográfica
con la propia estructura de la cuenca, así como otros que pueden utilizarse para
caracterizar esta y realizar un análisis hidrológico más exhaustivo.
Figura 15.24: Comparación entre una cuenca calculada mediante el método FD8 (a)
y otra aplicando el método D8 (b). Las celdas en color gris solo aportan parte de su flujo
a la unidad hidrológica. El punto rojo señala el punto de cierre.
Para el primer caso, se calculan las cuencas vertientes a todos las celdas de
salida especificadas, considerándose siempre que la cuenca asociada a las celdas
situadas aguas abajo engloba a la de aquellas situadas aguas arriba de ella, y
descontando la superficie de intersección. Los puntos de salida generalmente se
establecen sobre las celdas que representan confluencias de cauces donde el orden
jerárquico de la red de drenaje varía. Este es un ejemplo directo de aplicación de
la red de drenaje que extrajimos en el punto anterior.
Si asignamos ordenes jerárquicos de Shreve [253], tendremos una subcuenca
para cada subtramo, ya que estos ordenes varían en cada confluencia. Si, por el
contrario, empleamos ordenes de Strahler [245], solo serán consideradas como
celdas de salida aquella confluencias en las que se unan cauces de igual orden. La
figura 15.25 muestra un ejemplo de la primera de estas variantes.
Figura 15.25: División de una cuenca en subcuencas con puntos de salida en confluencias
con variación de órdenes de cauce
Caracterización
La información sobre la superficie y forma de la cuenca, así como la de los
valores interiores de la misma y las relaciones hidrológicas entre sus celdas, son
la base para elementos de caracterización de la cuenca vertiente.
En primer lugar, tenemos el área y perímetro de la cuenca, parámetros clásicos
sencillos de calcular sobre la capa que define la cuenca, bien contando las celdas o
402 Sistemas de Información Geográfica
las celdas de borde. El centro de masas del conjunto de celdas es el centro de masas
de la cuenca, de interés para el cálculo de parámetros accesorios con significado
hidrológico.
Como ya vimos en 14.2.4, la capa con la cuenca puede usarse como máscara
para limitar las celdas con valores válidos de una determinada variable a aquellas
dentro de la cuenca. Haciendo esto, el histograma de frecuencia de estos valores
o una curva hipsográfica calculada con ellos sirve como descriptor de la cuenca.
Un parámetro de interés es la distancia de flujo desde cada celda hasta el
punto de salida. Suponiendo una velocidad media en las celdas de la cuenca, estas
distancias pueden convertirse en tiempos de salida. La estimación de la velocidad
constante puede hacerse, por ejemplo, utilizando el tiempo de concentración de
la cuenca. El histograma de frecuencias de estos puede emplearse para obtener
un hidrograma unitario de la cuenca (Figura 15.26).
Vcauce
Vladera = (15.6.7)
k
donde k se sitúa según el autor en el intervalo de valores 10–15.
Se puede plantear un modelo más detallado si se consideran las condiciones
particulares de cada celda (pendiente, área acumulada, rugosidad hidráulica, etc.),
y se asigna una velocidad individual a cada uno en función de ellos. En [255] puede
encontrarse un modelo de estas características en el cual las celdas se dividen en
tres grupos en función de su área acumulada, aplicándose formulaciones distintas
para cada uno de ellos.
Geomorfometría y análisis del terreno 403
a0
I = ln (15.6.8)
tans
donde a0 es el área acumulada específica y s la pendiente.
Es habitual sustituir la pendiente nula por una de valor muy pequeño, del orden
de 0,0001% por ejemplo, para evitar que el índice no quede definido en celdas planas.
Detrás de su aspecto sencillo, este índice esconde una gran cantidad de infor-
mación. Originalmente fue definido con objeto de expresar la relación entre la
morfología del relieve y la acumulación de agua en el suelo, responsable esta a
su vez de la escorrentía generada, velocidad de flujo, etc. En particular, un uso
principal de este índice es el relacionado con la producción de escorrentía bajo
el supuesto de que esta se produce en presencia de una saturación de agua en el
suelo, momento en el que nivel freático alcanza la superficie.
Valores altos del índice implican zonas con baja pendiente o con gran cantidad
de área acumulada. Por tanto, se trata de celdas a las que llegarán flujos abun-
dantes y que no evacuan bien dicho flujo, teniendo tendencia a acumular humedad.
Por el contrario, las celdas con valores bajos, con elevada pendiente y baja área
acumulada, serán celdas en las que no se encontrará humedad edáfica.
La figura 15.27 muestra el mapa de este parámetro.
De formulación similar el anterior, el índice de potencia de cauce caracteriza
la energía de los flujos a través de cada celda. Su expresión es la siguiente:
P = a0 s (15.6.9)
Valores altos tanto de área acumulada como de pendiente, ambos implican
una mayor energía del flujo. En un caso, porque este flujo sera abundante, y en
otro porque llevará una mayor velocidad.
Por último, el factor LS de la Ecuación Universal de Pérdidas de Suelo, ori-
ginalmente basado en la longitud de la pendiente y su magnitud, se sustituye por
la siguiente expresión [257], empleando el área acumulada específica:
404 Sistemas de Información Geográfica
m n
a0 sinβ
LS = (15.6.10)
22,13 0,0896
donde m y n son parámetros a establecer empíricamente, para los cuales [257]
demuestran que, con laderas menores de 100 metros de longitud y pendientes
hasta 14◦ los valores m = 0,6 y n = 1,4 dan resultados ajustados a las formulaciones
originales. Por su parte, [258] propone unos valores de m = n = 1 para el caso en
que la erosión predominante sea de tipo laminar, o bien m = 1,6 y n = 1,3 en caso
de que exista predominio de erosión en regueros.
El hecho de emplear área acumulada en lugar de la longitud de pendiente hace
que se tengan en cuenta factores como la convergencia de flujo, no contemplados
en la formulación original.
15.7. Visibilidad
Las formas del relieve condicionan la visibilidad entre puntos del MDE, pu-
diendo bloquear la línea de visión entre ellos. Un análisis de visibilidad permite
saber si dos celdas tienen conexión visual o conocer qué otras celdas son visibles
desde una celda dada. Puesto que el concepto de visibilidad es recíproco, esto es
equivalente a calcular qué otras celdas ven a una celda dada.
El conjunto de celdas relacionadas visualmente con una concreta conforman
la cuenca visual asociada a esta. El cálculo de la cuenca visual implica el estudio
de todas las direcciones en las que la luz llega a (o parte de) la celda, analizando
para cada una de ellas una linea de visión.
Geomorfometría y análisis del terreno 405
Cada línea de visión pasa por una serie de celdas, las cuales serán visibles o
no en función de las formas del relieve que se interpongan entre estas y la celda
central que define la cuenca visual. Para calcular si cada una de estas celdas A es
visible desde la central B, calculamos el ángulo de la línea que las une, según
zb −za
α = arctan (15.7.1)
dAB
siendo dAB la distancia entre A y B. Si el ángulo formado por cualquier otra
celda, B 0 , más próxima a A que B es mayor, entonces B no es visible desde A. El
procedimiento puede ilustrarse con un pequeño ejemplo numérico como el siguiente.
Sobre la capa ráster de la figura 15.28, definimos una linea de visión entre las
celdas superior e inferior de la columna izquierda. Si suponemos un tamaño de
celda igual a 1, los valores de los ángulos y si son visibles o no desde la primera
celda (la de la esquina superior izquierda) se presentan en la tabla 15.7.
Figura 15.29: Cuenca visual asociada a un punto dado (en rojo). Se ha supuesto una
altura del objeto de 20 metros.
h
TAM = arctan (15.7.2)
dAB
siendo dAB la distancia entre la celda donde reside el objeto y la celda del observador.
Esta altura que se añade a las celdas donde emplazamos un objeto, en realidad
también puede añadirse a las restantes, ya que el observador también tiene una
altura dada. En general, no obstante, tiende a no utilizarse esta. Nótese que añadir
una altura a un objeto cambia en cierta medida el concepto de visibilidad, ya que,
según el caso analizado, implicara ver el objeto en su totalidad, y no solo la parte
superior que marca la altura máxima.
Hasta este punto, hemos utilizado el concepto de visibilidad para un único
punto, pero podemos repetir el análisis para todas las celdas o para un conjunto
de ellas. Este procedimiento permite calcular otros parámetros, tales como el
numero de celdas que se ven desde cada una, pudiendo incluso ponderar estas para
adjudicar un significado más concreto a estos valores. Por ejemplo, si ponderamos
las celdas en función de su valor paisajístico, el numero de celdas vistas sera un
indicador de la belleza escénica de la misma.
El resultado de este análisis de visibilidad repetido se conoce como exposición
visual [217]. La figura 15.30, muestra el numero de celdas de cauce vistas desde
las restantes, sirviendo así para evaluar en cierto modo la belleza paisajística que
deriva de la presencia del cauce. Estas celdas a su vez se han ponderado en función
de la importancia del cauce.
∂2z ∂2z
Tipo ∂x ∂y
Cima + +
Collado(Punto de silla) + -
Cresta + 0
Plano 0 0
Cauce - 0
Depresión - -
15.9. Resumen
El MDE es una capa de información fundamental, y de él pueden extraerse un
número muy elevado de nuevos parámetros. El formato ráster de malla regular es el
más adecuado para ello, aunque debe prepararse para que los resultados derivados
sean correctos, en especial los de corte hidrológico.
El análisis del MDE mediante funciones focales se puede llevar a cabo mediante
parámetros estadísticos, así como mediante parámetros geométricos. Estos últimos
requieren una caracterización matemática del relieve, para poder sobre ella aplicar
las herramientas del calculo diferencial. Los parámetros basados en derivadas de
primer orden son la pendiente y la orientación, así como, en función de estos, el
estudio de la insolación, que puede extenderse mediante conceptos de visibilidad.
Los basados en derivadas de segundo grado son las curvaturas, entre las cuales
destacan las denominadas curvatura horizontal y vertical.
Dentro del análisis hidrológico, existen diversos métodos para la asignación
de direcciones de flujo. El D8 es el más elemental de ellos, y constituye la base
conceptual de gran parte de los restantes. Estos nos permiten establecer relaciones
entre las celdas y proceder así a un estudio regional. El área aportante es el pa-
rámetro principal de dicho análisis, y se puede emplear como parámetro de apoyo
para la extracción de redes de drenaje.
La combinación de parámetros, en particular área aportante y pendiente, da
lugar a índices hidrológicos de gran interés.
412 Sistemas de Información Geográfica
Capítulo 16
Procesado de imágenes
Las imágenes constituyen un tipo particular de dato a partir del cual puede derivarse
abundante información. Ya sea como elementos meramente visuales cuyo único fin es la
representación junto a otras capas de información, o bien como base para análisis más
complejos, las imágenes son uno de los componentes más importantes del uso habitual de un
SIG. Sus particularidades las hacen merecedoras de un capítulo propio dentro del cual tratar
aquellos análisis desarrollados especialmente para este tipo de datos, que comparten, no
obstante, cierto número de sus principios fundamentales con otros de los análisis ya vistos.
Puesto que las imágenes se almacenan en formato ráster, es esencial comprender este
formato para seguir el contenido del capítulo, así como los distintos tipos de imágenes y
sus procedencias, esto último según se vio en el capítulo 6. Igualmente, los elementos del
álgebra de mapas, por compartir elementos comunes, deben conocerse para entender la
aplicación de estos al análisis de imágenes.
Al final de este capítulo se tendrá una visión genérica de la potencialidad que las
imágenes presentan de cara al análisis geográfico.
16.1. Introducción
Las imágenes como tipo de dato son parte de los SIG desde prácticamente su
origen, y las formulaciones dedicadas al análisis de estas existen también desde
entonces y son un campo muy desarrollado. Este análisis representa una de las áreas
más ricas, combinando aquellas formulaciones que consideran la naturaleza del tipo
particular de imágenes que se usan en un SIG —esto es, el hecho de que son imágenes
de la superficie terrestre— junto con las que existen para el análisis y proceso de
imágenes digitales en general. Estas últimas constituyen por sí solas un amplio
grupo de técnicas que, en conjunto con las dedicadas al análisis de datos espaciales,
forman una serie de herramientas de gran utilidad para el uso genérico de los SIG.
Si la consideramos simplemente como una estructura de datos, una imagen no es
sino una capa ráster más. Tiene la estructura regular de una capa ráster y contiene en
cada celda (cada píxel de la imagen) el valor asociado a una variable dada. Particular-
mente, esta variable es la intensidad de la reflectancia en una longitud de onda dada.
No existe diferencia «formal» entre un MDE creado a partir de la información
recogida por un sensor remoto tal como los utilizados, por ejemplo, para la Shuttle
Radar Topographic Mision (SRTM), y una imagen de satélite tal como las que
proporciona el satélite LANDSAT (salvo el hecho de que esta última contiene
varias bandas en lugar de una única). No obstante, la naturaleza de la variable
414 Sistemas de Información Geográfica
Mejora. La mejora es el paso siguiente a la corrección. Una vez que las imá-
genes han sido corregidas, la información que contienen puede hacerse más
explícita a través de distintos tipos de modificaciones. En el análisis visual, la
mejora de una imagen hace que sea más sencillo percibir el contenido de esta
y darle un uso directo. Las características de esa carretera o su propia forma,
pueden verse más claramente. Cuando estos procesos de identificación de ele-
mentos y características se realizan de forma automática mediante algoritmos
y no manualmente, también es importante una preparación de las imágenes pa-
ra mejorarlas de cara a este proceso. Mejorando una imagen, mejoramos tam-
bién la capacidad de esos algoritmos de «ver» la información que pretendemos
obtener, de un modo muy similar a como sucede con un observador humano.
Extracción de información. Los valores de las distintas bandas de una
imagen pueden emplearse para derivar otros nuevos, tales como variables de
tipo físico o pertenencia a clases predefinidas que pueden identificar los ele-
mentos presentes sobre el terreno. Estos procesos implican una interpretación
de la imagen en cuestión.
difícil que pueda trabajar con imágenes con más bandas, que pueden llegar
incluso a cientos. Por ello, las imágenes multi e hiperespectrales se analizan
de forma habitual mediante algoritmos y procesos automatizados, mientras
que el análisis visual queda limitado para las imágenes más sencillas. Como
veremos más adelante, pueden crearse representaciones en color de las imá-
genes con elevado número de bandas, acercando de ese modo la posibilidad
de un análisis visual de las mismas, aunque en ningún caso de la totalidad
de bandas, sino solo de un subconjunto muy reducido de ellas. De igual
modo, una banda aislada puede analizarse visualmente, pero ello no permite
acceder a toda la información que el conjunto de bandas de la imagen puede
aportar, mientras que el análisis no visual no se encuentra restringido por
las limitaciones propias de la visión humana.
La naturaleza del análisis automatizado es fundamentalmente cuantitativa,
incorporando formulaciones estadísticas o análisis matemáticos basados en
los valores que se recogen en cada píxel. Por el contrario, el análisis visual se
basa en propiedades cualitativas de los elementos de la imagen, más sencillas
de percibir e interpretar por quién desarrolla dicho análisis.
Es importante tener en cuenta estas diferencias, ya que las circunstancias en
las que va a ser necesaria la interpretación de una imagen pueden ser muy variadas,
debiendo en cada caso procederse a ella de la forma más adecuada.
Rectificación
El proceso de rectificación se fundamenta en el establecimiento de una corres-
pondencia entre las coordenadas de los píxeles de la imagen y las coordenadas
reales sobre el terreno de los objetos que estos píxeles representan. Por medio de
una función de transformación de la forma
Estos son elementos puntuales de los cuales se conoce con exactitud sus coorde-
nadas reales (bien habiéndolas tomado sobre el terreno o bien con una imagen
ya corregida cuya georreferencia pueda emplearse como dato fiable), y pueden
localizarse en la imagen. Identificando estos puntos y localizándolos sobre la imagen
a corregir se puede calcular la transformación de tal forma que al aplicar dicha
transformación sobre los puntos de control, pasen a tener las coordenadas que
realmente les corresponden con un error mínimo.
Los puntos de control deben buscarse en elementos del terreno que sean
fácilmente localizables y que puedan definirse con la mayor precisión posible. Cruces
de caminos u otros puntos singulares son habitualmente empleados para este fin.
Lógicamente, la elección de estos puntos depende de la resolución de la imagen, ya
que elementos tales como vértices geodésicos, muy aptos para ser puntos de control,
pueden verse en las imágenes de gran resolución pero no en las de menor resolución.
Con los puntos de control determinados, debe elegirse un tipo de función para
ajustar. Una transformación afín puede ser una opción inicial, pero las modifica-
ciones que permite (rotación, traslación y cambio de escala) no son suficientes para
la corrección de las distorsiones geométricas habituales, ya que estas son de una
naturaleza más compleja. Funciones de segundo o tercer grado son las opciones
más habituales que cumplan los requisitos necesarios, ajustándose estas mediante
mínimos cuadrados.
El número de puntos de control debe ser mayor al estrictamente necesario para
poder realizar el ajuste, ya que la redundancia que aportan los puntos adicionales
da significación estadística a la bondad de este.
En base a los puntos de control puede calcularse la bondad del ajuste mediante
el cálculo del error medio cuadrático. Por muy precisa que sea la transformación
que realicemos, esta núnca va a asignar a todos los puntos de control la coordenada
correcta que les corresponde, y que es la que hemos usado para definir dicha
transformación. Las discrepancias entre esas coordenadas reales de los puntos de
control y las asignadas a los mismos a partir del polinomio ajustado definen el
error medio cuadrático del ajuste según la siguiente expresión:
s
PN 0 2 0 2
i=1 (xi −xi ) +(yi −yi )
EMC = (16.2.2)
N
Para poder calcular el error medio cuadrático, se necesita al menos un punto de
control más que el mínimo necesario para ajustar la función polinómica utilizada.
El proceso de rectificación no solo puede emplearse para la corrección geo-
métrica de una imagen que dispone de una referencia geográfica incorrecta por
presentarse distorsiones y deformaciones. También puede utilizarse para georre-
ferenciar imágenes que carecen por completo de toda referencia geográfica.
Este caso, como vimos, es el habitual cuando utilizamos imágenes aéreas en
formato impreso o mapas en papel, que han de ser escaneados (digitalizados) para
420 Sistemas de Información Geográfica
Figura 16.1: Proceso de referenciación de una imagen (mapa escaneado), empleando para
la localización de puntos de control (en amarillo) una fotografía aérea ya georreferenciada.
Procesado de imágenes 421
Ortorrectificación
La figura 16.3 muestra claramente el efecto de las distorsiones que derivan del
relieve del terreno o de la propia altura de los elementos fotografiados, tales como
grandes edificios.
La ortofotografía tiene una escala uniforme, y es como una versión fotográfica
de un mapa de esa zona. Por esta razón, pueden medirse áreas y distancias en ella,
o utilizarla para superponer sobre ella otras capas. En una imagen sin ortorrec-
tificar, y cuando las distorsiones geométricas derivadas del relieve son notables,
la medición daría lugar a valores erróneos y la superposición con otras capas no
tendría una coincidencia completa.
Puesto que se emplean las elevaciones, el concurso de un Modelo Digital de
Elevación es imprescindible, pudiendo este proceder del mismo origen que la propia
imagen a ortorectificar (en caso de que el sensor ofrezca igualmente pares de
imágenes estereoscópicas, y procediendo de la forma que vimos en la sección 6.5.4),
o bien de otra fuente distinta.
El proceso de ortorrectificación es complejo y tiene una base matemática
extensa. El lector interesado puede encontrar más detalles, por ejemplo, en [268].
422 Sistemas de Información Geográfica
Figura 16.3: Las distorsiones provocadas por el hecho de que la escena fotografiada no
es plana se aprecian con claridad en esta imagen.
16.3. Mejoras
Una vez las imágenes están corregidas, puede procederse a su análisis. Este, no
obstante, en especial el de tipo visual, puede proporcionar mejores resultados si se
tratan los valores de la imagen con anterioridad, efectuando ajustes encaminados
a mejorar las imágenes como datos de partida. Este tipo de tratamiento no es
imprescindible, pero sí interesante de cara a preparar las imágenes, y existen
numerosos métodos para ello.
Podemos comprender mejor esto si pensamos en el tratamiento de imágenes
fotográficas habituales. Los métodos que se aplican para realzar el color de estas,
enfocar zonas borrosas, o ajustar el brillo o el contraste, entre otros, se pueden
aplicar de idéntica forma a imágenes aéreas o de satélite. El efecto que tienen sobre
estas es similar, mejorando la forma en que las percibimos, y también la forma
en que sus valores pueden ser analizados en otros procesos posteriores.
Todos estos procesos son elementos del análisis de imágenes digitales genéri-
cas, que al ser aplicados sobre imágenes aéreas o de satélite mantiene su mismo
significado y utilidad a pesar del contexto particular en el que se utilizan.
N D0 = f (N D) (16.3.1)
Según sea la función, tenemos un tipo u otro de operación, con un efecto
concreto. Para mostrar estas funciones de forma gráfica, emplearemos gráficas
como la siguiente, la cual se corresponde con la transformación identidad.
Segmentación
La primera operación que veremos es la segmentación, cuyo objetivo es par-
ticionar una imagen en diversas regiones en base a criterios de homogeneidad o
heterogeneidad [271].
Aunque veremos que existen muchas formas de segmentación, en su forma más
básica se trata de una operación píxel a píxel cuyo resultado es lo que conocemos
como una imagen binaria. Esto quiere decir que dicha imagen tiene únicamente dos
valores: uno de ellos representa lo que se conocen como objetos (que se representan
habitualmente en negro), y otros representan el fondo de la imagen (habitualmente
blanco).
Este procedimiento nos sirve para separar partes de la imagen en función de sus
valores. Muy frecuentemente, encontraremos en una imagen algunos elementos que
nos resultarán de interés (por ejemplo, una carretera a lo largo de una zona desierta,
claramente diferenciable), y resultará de interés separar esos elementos del resto
426 Sistemas de Información Geográfica
de la imagen. Esto permitirá que sea más sencillo operar con esos elementos en
posteriores operaciones. La segmentación simplifica los elementos de la imagen,
y la imagen resultante tiene menor complejidad pero resulta más útil a la hora
de realizar tales operaciones.
La figura 16.4 nos muestra el resultado de una operación de segmentación
aplicada sobre una imagen base (en este caso se trata de una ortofoto en blanco
y negro). En los sucesivos apartados se empleará esta misma imagen original para
ilustrar cada procedimiento. La curva de transformación asociada, con un umbral
aplicado de 173, se muestra en la figura 16.5.
los consideramos parte del fondo. La operación puede realizarse también al contra-
rio, en caso de que los objetos a separar vengan caracterizados por valores bajos.
En este caso, se asignaría 255 a los valores por debajo del umbral y 0 a los restantes.
La selección del umbral es el elemento clave en esta forma de segmentación, y
condiciona el resultado del procedimiento. El umbral puede seleccionarse en base a
las propias características de la imagen, o bien a partir de un conocimiento previo
de las características de los objetos a definir. En el primer caso, el histograma de la
imagen se convierte en una herramienta base para definir el umbral correctamente.
Además de establecerlo de forma directa mediante un valor concreto, existen
diversas formulaciones que permiten fijar un umbral de forma automática, siendo
formulaciones adaptativas. De igual modo, este umbral puede no ser constante
para toda la imagen, y realizarse una segmentación por zonas, de tal modo que
no se emplee el mismo umbral en todas ellas. Esto puede mejorar la eficacia del
proceso, ya que la relación entre el fondo y los objetos a separar no ha de ser la
misma en todas las áreas de la imagen.
En [272] se describen formulaciones alternativas para esta definición automática
de umbrales.
Este tipo de segmentación es, como se ha dicho, la forma más sencilla de esta cla-
se de procesos, ya que la imagen de partida es una imagen en escala de grises (imagen
de una banda), y el resultado es una imagen binaria. Se pueden, no obstante, seg-
mentar imágenes multibanda y hacerlo no en dos partes (fondo y elemento), sino en
un número mayor de ellos (fondo y distintos elementos, codificados con distintos va-
lores), entrañando las formulaciones correspondientes una complejidad lógicamente
mayor. Existen, por tanto, otros métodos de segmentación, muchos de los cuales no
implican únicamente operaciones píxel a píxel, sino más complejas. Aunque no en-
traremos a detallarlas con tanta profundidad, se enumeran y describen brevemente
a continuación las principales familias en que podemos dividir dichos métodos [273]:
Segmentación basada en umbral. Del tipo de los que hemos visto hasta
el momento.
Segmentación basada en regiones. Se ha de proporcionar al algoritmo
una serie de puntos que definan las distintas regiones, tales como puntos
centrales de las mismas. A partir de ellos, se va ampliando el espacio ocupado
por cada región (de un único punto) en función de la homogeneidad de las
celdas circundantes2 .
Segmentación basada en agregación. Métodos iterativos que agrupan
los píxeles en grupos de forma que estas agrupaciones sean lo más homogé-
2
Es probable que el lector haya utilizado alguna vez algún programa de tratamiento de imágenes,
en cuyo caso podrá entender de forma sencilla la forma de proceder de estos algoritmos, asimilándolo
a la herramienta «varita mágica», que selecciona los píxeles contiguos y de un color similar a uno
seleccionado sobre la imagen. En este caso, los puntos originales se le proporcionan al algoritmo,
que a partir de ellos efectúa un procedimiento similar al de dicha «varita mágica», seleccionando
progresivamente los píxeles «parecidos» situados alrededor, haciendo crecer cada región.
428 Sistemas de Información Geográfica
neas posibles. Estos algoritmos no los vamos a tratar en esta sección, pero
sí que se describen en otro punto de este texto, dentro de la sección 20.2.2
dedicada a la clasificación no supervisada.
Para el lector interesado, en [274] o [271] pueden encontrarse tratados en
profundidad todos estos distintos grupos de metodologías.
Desde el punto de vista de las operaciones del álgebra de mapas que conocemos,
la segmentación es una reclasificación de valores lo más sencilla posible, ya que
únicamente se crean dos clases (la de valores por debajo del umbral y la de valores por
encima de él). Un proceso algo más complejo es la definición de varios umbrales, de
forma que aparezcan más clases, siendo este también equivalente a la reclasificación
según la vimos en su momento. No obstante, en el ámbito del análisis de imágenes
esta operación se conoce habitualmente con el nombre de Density slicing.
Expansión de contraste
modifica el histograma de tal forma que todos los valores posibles de los Niveles
Digitales sean empleados. Es decir, que de los 255 niveles de intensidad de gris el his-
tograma abarque todos ellos, y al traducirse eso en las tonalidades de gris a la hora de
representarse, estas también vayan desde el valor 0 (negro) hasta el 255(blanco). Lo-
grando esto, se obtiene la mayor definición visual que puede apreciarse en la imagen.
Este efecto se consigue escalando el histograma, «estirándolo» horizontalmente
para que cubra todo el rango de valores. En imágenes cuyos Niveles Digitales
se sitúan mayoritariamente en un intervalo reducido, la representación presenta
tonalidades homogéneas que no aprovechan todo el contraste que puede lograrse
con el rango completo de intensidades. Aplicando una transformación conveniente,
se consigue que el histograma gane amplitud y la imagen gane en contraste.
A partir de una imagen con sus valores mínimo (x) y máximo(X) respectivos, se
trata de obtener una imagen que mantenga una distribución similar en su histogra-
ma, pero de tal forma que los valores mínimo y máximo pasen a ser otros distintos,
en particular 0 y 255 como valores límites del rango habitual de Niveles Digitales.
Para lograr esto la forma más simple es aplicar una fórmula como la siguiente.
255(N D−x)
N D0 = (16.3.2)
X −x
donde N D es el Nivel Digital de la imagen original y N D0 el de la imagen resultante.
Si recordamos lo visto en el apartado 14.2.1, la normalización era una función
de tipo local dentro del álgebra de mapas, y respondía a una expresión similar a
la anterior. El fundamento en este caso es el mismo, aunque la finalidad sea aquí
la de mejorar la imagen de cara a su visualización.
En el tratamiento de imágenes es habitual no aplicar directamente la expresión
16.3.2 con los valores mínimo y máximo absolutos de la imagen. De hacerlo así, la
presencia de valores atípicos alejados de la media (píxeles muy o muy poco brillantes)
puede desvirtuar el rango en el que se sitúan realmente los Niveles Digitales de
la imagen, y no conseguirse mediante la expansión de contraste el efecto deseado.
Una solución es acudir al histograma y tomar como valores de x y X no los
extremos absolutos, sino los correspondientes a los percentiles del 5% y el 95%. Al
operar con estos valores límite, aparecerán valores resultantes fuera del rango de
destino (0–255 en el caso más habitual que citamos), que se igualan a los valores
mínimo o máximo de dicho rango en función de si se encuentran fuera por el lado
negativo o el positivo.
Otra solución frecuente para la selección de x y X consiste en tomar la frecuencia
del pico del histograma (es decir, el número del píxel que representa el valor máximo
de este), y definir un umbral utilizando un porcentaje de dicha frecuencia. El valor
mínimo x corresponde al valor del primer Nivel Digital que, empezando desde 0 y en
sentido creciente (de izquierda a derecha del histograma), supera dicha frecuencia.
De modo similar, el valor máximo X se calcula recorriendo el histograma en sentido
430 Sistemas de Información Geográfica
negativo (de derecha a izquierda) y tomando el primer Nivel Digital cuya banda
de frecuencia en el histograma sea superior a la establecida por el umbral.
Si se aplica la normalización a una imagen multibanda, es importante tener
en cuenta que las relaciones entre los Niveles Digitales de estas han de preservarse.
Cuando se aplica normalización sobre un conjunto de capas ráster, el objetivo
es escalar las distintas variables para que ocupen un rango homogéneo, y esta
relación no es relevante. En el caso de imágenes, y trabajando con bandas en lugar
de capas, sí lo es, ya que de ella dependen, por ejemplo, los colores obtenidos al
componerlas para formar imágenes en falso color según veremos más adelante.
Figura 16.7: Imagen original y modificación del brillo y el contraste, junto con sus curvas
de transformación asociadas
N D0 = mN D+c (16.3.4)
Procesado de imágenes 431
1−m
c= (16.3.5)
2
N D0 = N Dα (16.3.6)
1
N D0 = (16.3.7)
1+eαN D+β
432 Sistemas de Información Geográfica
Ecualización
La ecualización es un proceso similar a la normalización, en cuanto que hace
más patentes las diferencias entre los distintos niveles de la imagen, añadiendo
definición a esta. El proceso de ecualización modifica el histograma de tal modo
que en la nueva imagen todos los niveles digitales tengan la misma frecuencia. De
esta forma, se redistribuyen los valores de intensidad a lo largo de todo el espectro,
igualando la presencia de estos en la imagen.
La figura 16.9 muestra la comparación entre la imagen original y la ecualizada,
así como sus histogramas acumulados. Esto permite ver más claramente la natu-
raleza de la transformación. Teóricamente, si el histograma es constante tras la
ecualización, el histograma acumulado debería ser una recta inclinada. El hecho de
trabajar con valores discretos de los Niveles Digitales hace que no sea exactamente
así, aunque puede claramente verse que la forma sí se asemeja a una recta en lugar
de a la curva sigmoidal que presenta el histograma de la imagen original.
16.3.2. Filtros
Al igual que algunas de las operaciones vistas ya en este capítulo, los filtros son
similares en concepto a parte de las operaciones que ya conocemos de capítulos
anteriores. En particular, comparten sus fundamentos con las funciones focales del
álgebra de mapas, aunque, al igual que en otros de los casos anteriores, la utilización
de estas tiene aquí una función principalmente relacionada con la mejora visual.
Podemos dividir los filtros en dos tipos en función del tipo de modificación que
realizan.
Filtros de suavizado. Producen un efecto de desenfoque, restando definición
a la imagen. Atenúan las diferencias entre píxeles vecinos.
Filtros de realce: Producen un efecto de enfoque, aumentando la definición
de la imagen. Acentúan las diferencias de intensidad entre píxeles vecinos.
Ciertos filtros calculan los nuevos valores como combinaciones lineales de
los píxeles del entorno. Son las denominadas convoluciones, las cuales ya vimos
en el capítulo dedicado al álgebra de mapas. La convolución se define mediante
una matriz n × n (que denominábamos núcleo) y esta permite calcular el valor
resultante de la operación. En función de los valores de la matriz, el efecto que
el filtro tenga sobre la imagen será uno u otro.
Otros filtros, a diferencia de las convoluciones, se basan en funciones estadísticas
que no pueden expresarse mediante un núcleo.
Filtros de suavizado
Como muestra la figura 16.10, los filtros de suavizado (también conocidos
como filtros de paso bajo) provocan una perdida de foco en la imagen. Este efecto
se consigue disminuyendo las diferencias entre píxeles contiguos, algo que puede
obtenerse por ejemplo mediante un filtro de media. Como ya vimos, este puede
expresarse mediante un núcleo como el siguiente:
434 Sistemas de Información Geográfica
El efecto del filtro de media vimos que, aplicado sobre una capa de elevación,
«redondeaba» el relieve. En el caso de ser aplicado sobre una imagen hace que esta
aparezca más borrosa. La cantidad de suavizado puede ser controlada, al igual
que en el caso de aplicarse sobre otro tipo de capas ráster, mediante el tamaño
de la ventana, que puede ser mayor que el habitual 3×3 anterior.
Otra forma de modificar el efecto del suavizado, en este caso limitándolo, es
dando más peso al píxel central. Para ello puede emplearse un núcleo como el
mostrado a continuación:
La media es sensible a los valores extremos de la ventana, por lo que una opción
habitual es sustituir el filtro de media por uno de mediana. Este no es sensible a
la presencia de valores extremos muy alejados de la media (outliers), y además
garantiza que el valor resultante es un valor que existe como tal en la ventana de
píxeles circundantes, lo cual puede resultar de interés en algunas circunstancias.
El filtro de mediana no es una convolución, y no puede por tanto expresarse
mediante un núcleo como sucedía con el de media.
La aplicación de un filtro de suavizado no solo tiene como efecto el desenfoque
de la imagen, sino que también elimina el ruido de la misma. Por ello, estos filtros
son una buena herramienta para tratar algunas de las deficiencias de las imágenes,
que como vimos pueden presentar píxeles con Niveles Digitales muy distintos de
los de su entorno.
En la figura 16.11 puede observarse como la presencia de una línea errónea
introducida en una imagen se corrige parcialmente con un filtro de mediana.
Filtros como el de mayoría o moda, que da como valor resultante de la celda
aquel que se repite más entre las celdas circundantes, pueden también aplicarse
para estos fines.
Las convoluciones tales como el filtro de media no son recomendables en mu-
chos de estos casos, según sea el tipo de ruido que deseamos eliminar. Un tipo
de ruido habitual es la presencia de píxeles blancos o negros debidos a errores de
transmisión o almacenamiento, es decir, con Niveles Digitales extremos. El sesgo
que introducen estos píxeles es muy alto, y la aplicación de un filtro de media no
es válido para eliminar esta clase de ruido.
Procesado de imágenes 435
Figura 16.11: Eliminación de una línea errónea por aplicación de un filtro de mediana
Otro tipo de ruido habitual es el conocido como sal y pimienta, que aparece fre-
cuentemente al segmentar imágenes según vimos en un punto anterior. La imagen de
salida contiene únicamente valores 1 y 0, representados de la forma habitual en blan-
co y negro respectivamente. Es normal que en la segmentación aparezcan píxeles
con uno de dichos valores, rodeados por pixeles del otro, es decir píxeles completa-
mente aislados. Esto da la sensación de una imagen sobre la que se han «esparcido»
píxeles blancos (sal) sobre la parte negra, o negros (pimienta) sobre la parte blanca.
Para limpiar estas imágenes resultantes, se emplean también filtros como
los anteriores. Un filtro de mediana aplicado sobre la imagen de la figura 16.4
(resultado de una segmentación) elimina gran parte de los píxeles aislados y genera
el resultado mostrado en la figura 16.12.
436 Sistemas de Información Geográfica
Figura 16.12: Eliminación de ruido de tipo sal y pimienta mediante filtro de mediana.
Filtros de realce
Para hacer su expresión más sencilla, tanto este núcleo como los siguientes no
se aplican según la ecuación 16.3.9, sino según la siguiente:
n
X
y= zi ki ; ki ∈ R (16.3.9)
i=1
q
y= y12 +y22 (16.3.10)
Aplicando este filtro se obtiene una imagen que mantiene un aspecto similar
a la imagen original, pero con mayor definición. Es decir, el mismo efecto que si
se aplicara un filtro de realce.
440 Sistemas de Información Geográfica
Transformación IHS
La imagen que dispone de una mejor información espectral aporta esta de
forma habitual en el modo RGB que ya conocemos. Este, recordemos, implica
tres bandas correspondientes a los colores rojo, verde y azul, las cuales dan, por
adición, la imagen en color resultante.
El modo RGB es solo uno de los muchos existentes para codificar un color,
siendo el más frecuente para el registro de imágenes y la representación de estas en
una pantalla, pero no el único. A la hora de llevar a cabo una fusión de imágenes,
la utilización de otros formatos resulta más ventajosa.
Uno de los modo que pueden emplearse para este fin es el conocido como IHS3 .
Este formato es más similar a cómo percibimos los distintos colores, y se basa en
los tres siguientes componentes [276]:
Intensidad (I). Expresa el brillo del color. Es la variable que se percibe
más sencillamente por parte del ojo humano.
Tono (H). Expresa de qué color se trata. Más exactamente, indica la longitud
de onda predominante de dicho color.
Saturación (S). Expresa la pureza del color. Valores altos indican una alta
presencia de blanco.
3
Intensity, Hue, Saturation (Intensidad, Tono, Saturación)
Procesado de imágenes 441
Para saber más acerca del espacio de color IHS y las formas de convertir entre
RGB y IHS, y viceversa, puede consultarse [277]. Veremos algo más sobre estos
conceptos, aunque en un contexto distinto, en el capítulo 26.
Dadas dos imágenes RGB, una de ellas con mayor información espacial y
otra con mayor información espectral, puede realizarse una fusión empleando una
transformación IHS siguiendo los pasos descritos a continuación [278][279]:
Se remuestrea la imagen de menor resolución espacial a las dimensiones de
la de mayor resolución, o bien ambas a un tamaño de píxel intermedio entre
los de ambas imágenes. Ese será el tamaño de píxel de la imagen resultante,
mejorando así el de la imagen que aporta la información espectral.
Se convierten las imágenes al formato IHS. Lo habitual es que la imagen con
mayor resolución espacial sea de una única banda, con lo que no es necesaria
conversión alguna.
Se sustituye en la imagen con la información espectral la banda de intensidad
I por la banda de intensidad de la otra imagen.
Se aplica una transformación inversa para pasar de nuevo al formato RGB.
En la figura 16.16 puede verse un esquema del proceso de fusión de imágenes
según lo descrito anteriormente.
H H
I Pancromática
S S
sustituye las variables originales por otras entre las que no existe correlación, cada
una de las cuales explica un porcentaje concreto de la varianza global.
Puede aprovecharse el análisis de componentes principales para efectuar una
fusión de imágenes, siguiendo un proceso similar al de la transformación IHS, con
los pasos enunciados a continuación.
Se remuestrean las imágenes a un marco común como ya vimos anteriormente
Se efectúa un análisis de componentes principales en ambas imágenes.
El componente principal (la nueva banda que explica un mayor porcentaje)
de la imagen con la información espectral, se sustituye por el componente
principal de la imagen de mejor resolución espacial.
Se aplica un proceso inverso al análisis de componentes principales sobre
dicha imagen de información espectral, obteniendo así el resultado buscado.
Transformación de Brovey
La transformación de Brovey [280] se emplea también para la fusión de imáge-
nes, aunque su procedimiento es bien distinto a los anteriores. En este caso, no se
da una modificación previa del conjunto de capas que conforman la componente
multiespectral, seguida esta de una sustitución, sino que se opera banda a banda,
aumentando la resolución de estas de forma individual. Combinando las bandas
resultantes se obtiene la imagen sintética buscada.
En particular, se parte de una imagen con tres bandas y una imagen pancro-
mática de mayor resolución espacial. Para transformar la banda i–ésima se utiliza
la siguiente expresión:
N Di
N D0 = N Dpan (16.3.11)
N D1 +N D2 +N D3
donde N Dn es el Nivel Digital del píxel en la banda n–ésima, y N Dpan el de dicho
píxel en la imagen pancromática. Obviamente, se requieren remuestreos para
ajustar las capas a un marco común donde exista correspondencia de píxeles entre
ambas imágenes.
Para el caso de los sensores más habituales existen recomendaciones sobre qué
tres bandas tomar para definir la imagen multiespectral requerida por el método.
Por ejemplo, para el sensor LANDSAT se recomiendan las bandas 2, 4 y 5; y para
Quickbird las bandas del verde, rojo e infrarrojo cercano.
de las distintas áreas del terreno (tipo de uso de suelo, condiciones fisico–químicas,
etc.), existiendo para cada uno de estos propósitos una serie de algoritmos y
formulaciones.
16.4.1. Visualización
La obtención de de resultados a partir de imágenes, tales como la clasificación
de las distintas zonas o la localización de áreas en en las que aparece algún ele-
mento particular del terreno (por ejemplo, zonas de agua como ríos o embalses),
se realiza, como veremos más adelante, a partir de los Niveles Digitales de las
distintas bandas de una imagen. Este análisis es de tipo puramente numérico. No
obstante, la conversión de esos Niveles Digitales en colores permite extraer los
mismos resultados en base a la mera exploración visual, ya que presenta los valores
de las bandas de un modo en que el ojo humano puede interpretarlos y analizarlos.
Así, el análisis más inmediato que puede realizarse con una imagen es el de tipo
visual, siempre que se tenga una representación adecuada de la imagen.
Las imágenes más sencillas contienen una única banda, y su representación en
blanco y negro (escala de grises) es la forma habitual de mostrarlas. Las imágenes
digitales habituales se dividen en tres bandas, denominadas canales, cada una de las
cuales contiene la información sobre un color concreto. En el caso más frecuente del
modelo RGB, ya conocido por nosotros, estos colores son el rojo, el verde y el azul.
Las imágenes que tomamos con una cámara digital o una fotografía aérea en
color escaneada y almacenada en un fichero, ambas utilizan este modelo de colores.
Los periféricos de representación en los cuales las observamos, tales como una
pantalla o un cañón de proyección, utilizan un esquema igual para reproducir
un color dado. Este esquema se denomina de tipo aditivo, ya que forma el color
sumando unas intensidades concretas de cada uno de los colores básicos. La figura
16.17 muestra un ejemplo de descomposición en canales RGB.
Según lo anterior, el color verde de, por ejemplo, una zona de vegetación, se des-
compone en una cierta intensidad de verde, una de rojo y una de azul, se almacena,
y después se recrea en el monitor de un ordenador sumando dichas intensidades.
Es decir, existe una relación directa entre el color real y el que vemos en pantalla.
A diferencia de esto, las imágenes de satélite multiespectrales presentan algunas
diferencias en cuanto a su significado visual, pero es interesante buscar de igual
modo una forma de visualizarlas para poder llevar a cabo este primer análisis.
Los Niveles Digitales de las distintas bandas no están relacionados con uno de
los colores base de ningún modelo. Como sabemos, representan las intensidades
correspondientes a una longitud de onda concreta, pero esta no tiene por qué ser
la de un color básico o existir un modelo que se base en dichos colores. De hecho, ni
siquiera tiene que corresponder a una longitud de onda dentro del espectro visible,
ya que puede corresponder al infrarrojo, por ejemplo. Asimismo, el número de
bandas no ha de ser necesariamente de tres, y puede ser muy superior.
444 Sistemas de Información Geográfica
En estos casos, se toman tres bandas de entre las que componen la imagen, y
se asocian estas a uno u otro de los canales del rojo, el verde y el azul. En función
de las bandas y el esquema de asignación que se tome, la representación visual que
se obtiene es muy distinta, y más o menos válida para uno u otro tipo de análisis.
De entre los posibles subconjuntos de tres bandas y el orden de asignación de las
mismas, algunos presentan una mayor lógica de cara a la realización de los análisis
más frecuentes. Así, resulta fácil pensar que la opción más interesante es tratar de se-
leccionar aquellas tres bandas cuyas longitudes de onda sean más similares a las del
rojo, el verde y el azul, de tal modo que la composición resultante sea lo más similar
posible a la tonalidad real del terreno fotografiado. Para imágenes del sensor LAND-
SAT TM, por ejemplo, esto lleva a emplear las bandas 3 (rojo), 2 (verde) y 1 (azul).
En otros casos, no existen tales bandas, y puede o bien tomarse una banda
alternativa, o proceder a efectuar combinaciones lineales de las bandas existentes.
En este ultimo caso, se simula la banda que no está presente. Por ejemplo, en el
caso del sensor SPOT XS pueden obtenerse los valores de intensidad de cada canal
según las siguientes expresiones:
El cociente entre dos bandas dadas es también una solución habitual a utilizar
para obtener los valores para los distintos canales.
Procesado de imágenes 445
Si se toman otras bandas distintas y se las asocia a un canal dado (pese a que
realmente no contienen información acerca de la intensidad en la longitud de onda
de dicho color), se obtiene lo que se conoce como composiciones en falso color.
Una composición en falso color habitual es la que utiliza la banda del infrarrojo
cercano para el canal rojo, la del rojo para el canal azul y la del verde para el canal
azul. El resultado es similar a de una fotografía infrarroja, y su interpretación en
función de los distintos colores pude hacerse de la misma forma que en esta. Para
el sensor LANDSAT TM, las bandas 4,2,1 o bien las bandas 3,2,1 son las que se
deben usar para generar esta composición.
En general, pueden tomarse cualesquiera bandas para crear una composición
en falso color. La elección de unas u otras y el canal al que se asocian debe estar
en relación con la finalidad que se persiga, de forma que la composición resultante
realce las características de mayor interés para la interpretación visual de la imagen.
Como veremos más adelante en este capítulo, la actividad de la vegetación afecta
notablemente a los valores en el rango del infrarrojo, y son estos valores los que se
utilizarán para los análisis relativos a dicha vegetación. Este mismo concepto puede
aplicarse a la hora de la visualización, y si queremos discriminar la vegetación
existente con un análisis puramente visual, será de interés incorporar la banda
correspondiente a dicha longitud de onda al crear la composición en falso color,
ya que aportará información a tal fin.
La figura 16.18 muestra distintas composiciones a partir de las bandas de una
imagen LANDSAT TM.
Figura 16.18: Distintas composiciones a partir de las bandas de una imagen LANDSAT
TM. a) 1, 2, 5; b) 2, 4, 3; c) 2, 5, 3
Figura 16.19: Una sencilla imagen binaria. Para más claridad, se han trazado líneas
divisorias entre los distintos píxeles.
Erosión y dilatación
Las dos principales operaciones morfológicas son la erosión y la dilatación.
Pese a que sus nombres son ya sumamente descriptivos, veamos gráficamente en
la figura 16.20 el efecto de ambas sobre nuestra imagen base.
Figura 16.20: Resultado de aplicar operaciones de erosión (a) y dilatación (b) sobre
la imagen base.
Como es fácil apreciar, la erosión reduce el tamaño de las formas, mientras que
la dilatación tiene el efecto contrario, «engordándolas»6 .
5
Las direcciones Web [281] y [282] contienen información pormenorizada sobre los fundamentos
en que se basan las operaciones morfológicas, así como una descripción de las más habituales.
6
Este efecto contrario en realidad hace que las operaciones sean una la dual de la otra. Esto
448 Sistemas de Información Geográfica
Para efectuar dicha erosión desplazamos la ventana por todos los píxeles de
los elementos que se quieren erosionar (que en una imagen binaria tendrán un
valor 255 o 1 según hemos visto en el apartado dedicado a la segmentación de
imágenes). Si con el anterior núcleo centrado en un píxel concreto todos los píxeles
circundantes en la imagen coinciden con los valores de la ventana, entonces el píxel
mantiene su valor 1 como píxel de un elemento. En caso contrario, pasa a tener
un valor cero, pasando a ser un píxel del fondo.
El anterior núcleo aplicado según la metodología descrita hace que solo se
mantengan con valor 1 aquellos píxeles que estén completamente rodeados de otros
píxeles también de valor 1. Por ello, todos los píxeles del exterior de los distintos
elementos quedan eliminados (pasan a formar parte del fondo), y al área de estos
elementos disminuye.
El efecto de la erosión es mayor si se utiliza una ventana de mayor tamaño, tal
como una 5×5, también con valores 1 en todas sus celdas. Este efecto más acusado
puede reproducirse igualmente si se aplican sucesivos procesos de erosión con la
ventana menor, reduciendo progresivamente el tamaño de los elementos.
Para el caso de la dilatación, podemos utilizar el mismo elemento estructural,
pero el criterio es distinto. En el caso de la erosión se exigía una completa coinci-
dencia entre la imagen y el elemento estructural. En este, únicamente se exige que
quiere decir que aplicar una de ellas sobre los elementos de la imagen es equivalente a aplicar
la otra sobre el fondo
7
Estos núcleos se denominan también elementos estructurales o sondas dentro de la jerga
relativa a este tipo de operaciones.
Procesado de imágenes 449
al menos uno de los píxeles presente coincidencia. Esta operación, con el núcleo
presentado, implica que todo píxel que se encuentre en contacto con algún píxel
del objeto, pasara a formar parte de este. Con ello, los objetos crecen.
Apertura y cierre
Figura 16.21: a) Imagen original con un objeto lineal desconectado. b) Objeto conectado
tras la aplicación de una operación de cierre. c) Esqueleto del anterior objeto obtenido
mediante la aplicación de operaciones morfológicas.
corregir este hecho (que no es adecuado para otras operaciones) es lo que veremos
seguidamente con una nueva operación morfológica: la esqueletización.
Esqueletización
Hemos visto cómo resulta posible a partir de la aplicación de métodos sencillos
reducir el tamaño de los distintos objetos de la imagen, y aplicando estos sucesiva-
mente, reducir dicho tamaño más y más hasta el punto deseado. Utilizando ideas
similares podemos reducir un objeto de una imagen binaria hasta un conjunto
mínimo de píxeles que preserven la forma y las propiedades topológicas del objeto
original, habiendo eliminado el mayor numero posible de ellos, que quedarían
como píxeles de fondo. En particular, un conjunto de un único píxel de ancho es
la estructura mínima que puede obtenerse.
Este conjunto mínimo de píxeles delimitan el «eje» del objeto, y se conocen
como el esqueleto de este. La obtención de este esqueleto es de gran utilidad, pues al
constituir un objeto de máxima simplicidad, facilita buena parte de las operaciones
que se pueden realizar posteriormente.
Para ver un caso práctico, volvamos a la figura 16.21. La imagen b) que hemos
obtenido tras el proceso de cierre representa, según convenimos, una carretera,
pero el tamaño de celda de la misma es superior al ancho de la carretera. Por esta
razón, el objeto que define la carretera tiene un ancho de varias celdas.
Un parámetro sencillo tal como la longitud de la vía no resulta difícil de medir
manualmente en esa imagen b), pero automatizar ese proceso sobre la misma imagen
plantea ciertas complicaciones. Puesto que la carretera también tiene un cierto
ancho, la longitud que queremos calcular no queda definida unívocamente, al menos
no de una forma inmediata. Baste ver que, sin salirnos de los píxeles negros (los
de carretera), podemos ir de un extremo a otro de esta por muchas rutas distintas,
saltando de píxel en píxel y obteniendo en estos recorridos longitudes distintas.
El problema estriba en que, aunque tratemos conceptualmente a esa carretera
como un elemento lineal —es decir, sin ancho—, en realidad sí que tiene un ancho
dado, a pesar de que este es sensiblemente menor que su longitud. Si observamos
ahora la imagen c) dentro de la anterior figura, veremos que estos problemas ya
no existen. Solo hay una forma de recorrer el conjunto de píxeles de un extremo
a otro. La medición puede claramente automatizarse, y el algoritmo encargado
de ello será mucho más simple.
El esqueleto de la carretera mantiene así las propiedades que nos interesan,
tales como la longitud, pero de una manera más adecuada para el análisis. De
hecho, mantiene incluso la topología, la cual habíamos «corregido» aplicando la
operación de cierre.
El cálculo del esqueleto puede llevarse a cabo aplicando operaciones similares a
las que ya conocemos. Estas operaciones se denominan de adelgazamiento8 , pues su
8
Habitualmente citadas en su denominación en inglés: thinning
Procesado de imágenes 451
Cuadro 16.1: Esquema de regiones del espectro, procesos con los que interactúan y
aplicaciones habituales en función de estos.
los dos tipos anteriores en relación con tres de los elementos básicos del estudio
del medio: el suelo, la vegetación y el agua.
Parámetros de la vegetación
ción la que emplean para su obtención de energía. Por el contrario, las radiaciones
de menor frecuencia tales como las del infrarrojo no son útiles para el desarrollo de
la actividad fotosintética, y la absorción de estas provocaría tan solo un aumento
de la temperatura de la planta que podría ser perjudicial para la misma. Por ello,
estas frecuencias son reflejadas en su mayor parte.
Como resultado de lo anterior, las bandas de imágenes de satélite correspon-
dientes a la zona del infrarrojo van a presentar altos valores de reflectancia, y bajos
en la banda del rojo en caso de que exista vegetación, lo cual permite localizar esta
mediante la utilización de dichas imágenes. Este es el fundamento de los índices
de vegetación.
Sin necesidad de definir aún ningún índice, podemos ver claramente este hecho
en la figura 16.23. En ella, se ha creado una imagen en falso color empleando las
bandas del infrarrojo cercano, el rojo y el verde para los canales del rojo, verde
y azul respectivamente (los del modelo RGB)11 . Debido a lo anterior, las zonas
con cultivos con alto vigor vegetativo aparecen con un tono rojo muy marcado,
que permite rápidamente identificarlas.
Figura 16.23: La creación de una imagen de falso color con un esquema RGB=NRG
permite localizar las zonas de vegetación por su coloración roja intensa. Esto es debido
a la alta reflectancia en las banda del infrarrojo visible y la baja reflectancia en el rango
visible, causadas ambas por la actividad fotosintética.
Dependiendo del tipo de sensor del cual provengan las imágenes a analizar,
serán unas u otras bandas las que deban emplearse como bandas del rojo e infra-
11
Este esquema es de uso habitual y se denota como RGB = NRG, siendo N = Near infrared
(infrarrojo cercano), R = Red (rojo) y G = Green (verde). Como regla mnemotécnica, la lectura
en ingles del acrónimo NRG suena parecida a la del vocablo inglés energy (energía), y es también
común referirse así a él.
Procesado de imágenes 455
rrojo cercano. En el caso particular del sensor LANDSAT, por ejemplo, la banda
del rojo es la 3, mientras que la del infrarrojo cercano es la 4.
Según cómo se formulen los índices en base a los valores de las anteriores
bandas, podemos distinguir dos grupos:
Formulaciones empleando únicamente las bandas del rojo y el infrarrojo
cercano. Estos se conocen como índices basados en distancia, o intrínsecos.
Formulaciones empleando además los parámetros de la denominada línea
del suelo. Estos índices se conocen como índices basados en pendiente.
Veremos más adelante qué representa esa línea de suelo y cómo calcularla. Por
ahora, veamos algunos de los principales índices del primer grupo.
El más importante de los índices de vegetación es el Índice de Vegetación de
Diferencia Normalizada (NDVI, Normalized Differential Vegetation Index) [286],
cuya expresión es la siguiente:
IR−R
NDVI = (16.4.2)
IR+R
siendo R e IR las reflectancias correspondientes al rojo e infrarrojo respectivamente.
Los valores de este índice se encuentran dentro del intervalo (-1,1). Valores
altos de NDVI indican la presencia de vegetación.
Además de permitir localizar las zonas con presencia de vegetación, el NDVI pue-
de emplearse para conocer otros parámetros relativos a la vegetación, ya que estos
también condicionan la forma en que esta refleja la radiación. Factores tales como el
vigor vegetativo, el estado fitosanitario o el contenido en agua de las hojas influyen en
la forma en cómo los procesos fotosintéticos se producen. Esto tiene un efecto directo
sobre las radiaciones emitidas en las distintas longitudes de onda, y muy particular-
mente en las empleadas para la definición de los índices de vegetación. Por ello, son
una valiosa fuente de información acerca de las variables propias de la vegetación.
Otros parámetros como el Índice de Área Foliar 12 o el factor C de la USLE
pueden calcularse en primera aproximación a partir del NDVI, siendo abundante
la literatura en este sentido. Por ejemplo, para el factor C, la siguiente expresión
genérica puede servir para estimarlo en función exclusivamente del NDVI [287],
NDVI
−α β−NDVI
C =e (16.4.3)
Para ese mismo suelo, una cierta cobertura vegetal haría que el valor correspon-
diente tuviera una menor reflectancia en el rojo y mayor en el infrarrojo cercano,
alejándose de la línea de suelo perpendicularmente. Cuanto mayor es la cobertura
vegetal y mayor la actividad fotosintética, mayor será esta distancia entre el punto
y la linea de suelo, y por lo tanto su medida puede constituir un índice de vegetación
válido. Esta es la razón por la que estos índices, como ya se dijo, se conozcan como
índices basados en distancia.
El cálculo de la línea de suelo se lleva a cabo siguiendo los pasos enunciados
a continuación:
Se calcula un índice de vegetación basado en pendiente tal como el NDVI.
Se identifican las zonas sin vegetación (suelo desnudo) en base al anterior.
Estas tendrán valores negativos próximos a -1.
Se calcula una regresión lineal entre los valores del rojo y del infrarrojo,
solo con los píxeles de las anteriormente definidas zonas sin vegetación. Se
458 Sistemas de Información Geográfica
b·IR−R+a
PVI = √ (16.4.7)
b2 +1
[292]
(IR−a)(R+b)
PVI = √ (16.4.8)
a2 +1
.
[293]
IR−R
SAVI = (1+L) (16.4.10)
IR+R+L
La incorporación del parámetro L minimiza las perturbaciones causadas por el
suelo y debe estimarse en función de este. El autor recomienda un valor de 1 para
zonas de vegetación escasa, 0.5 en zonas de densidad media, y 0.25 si la densidad
de la vegetación es elevada.
el caso del suelo son cuatro los factores principales que influyen: la composición
mineralógica del suelo, la humedad, la textura y la materia orgánica.
Resulta claro que cada mineral va a presentar una comportamiento distinto fren-
te a la radiación, y ello puede utilizarse para inferir la composición del suelo. Además
de para el estudio de las propiedades físicas, la clasificación de los suelos es también
posible a partir de imágenes de satélite, existiendo bases de datos con las firmas
espectrales de los principales minerales, que pueden aplicarse para clasificarlo.
Respecto a la humedad, se presentan bandas de absorción marcadas alrededor
de los 1,4 y 1,9 µm. Por su parte, las bandas del rojo y el infrarrojo cercano
son indiferentes a la cantidad de humedad presente en suelo. Estas bandas, que
utilizábamos para la definición de un tipo particular de índices de vegetación,
también sirven para caracterizar el suelo. La regresión entre ellas da lugar a la ya
conocida línea del suelo, cuyos valores sirven para definir dicho suelo.
La materia orgánica, por su parte, influye sobre la capacidad de retención de
humedad del suelo, por lo que indirectamente afecta a las propiedades ópticas de
este y condiciona los valores de reflectividad.
Por último, la textura influye sobre la reflectancia al modificar la forma en que
la luz incide y se refleja sobre el suelo. La rugosidad y tamaño de las partículas
causan que estos procesos se den de un modo u otro, y afectan así a las imágenes.
Junto con los parámetros del suelo que pueden estudiarse directamente a partir
de la radiación reflejada por este, otros pueden analizarse empleando elementos
adicionales como, por ejemplo, la vegetación, de la cual ya hemos hablado con ante-
rioridad. Aunque se requiere un conocimiento exhaustivo de las condiciones existen-
tes, y debe complementarse su análisis mediante imágenes con el estudio de campo,
las propiedades de las plantas tales como verdor o coloración pueden relacionarse
con las propiedades del suelo, esencialmente la disposición de nutrientes en este.
Como ya sabemos, las imágenes nos permiten una actualización mucho más
sencilla de las bases de datos espaciales, pero ello requiere extraer de ellas la
información necesaria para actualizar dichas bases de datos. Cuando el proceso
de extracción de información se automatiza, la actualización de las bases de datos
lo hace de igual modo (al menos en cierta medida), aprovechándose realmente
todo el potencial que las imágenes contienen para mantener actualizados los datos
geográficos de forma sencilla.
La clasificación de imágenes, la cual veremos en el apartado 20.2, es una
herramienta válida a estos efectos, ya que permite asignar una categoría a cada uno
de los píxeles de una imagen, permitiéndonos convertir una imagen en una capa de
tipos de suelo o usos de suelo, entre otras, y provee una solución automatizada para
ello. Por su gran importancia, la veremos con gran detalle en un capítulo aparte.
Este tipo de procesos, sin embargo, no son siempre suficientes para la creación
de nuevas capas. A veces se necesita no solo clasificar, sino también detectar los
distintos elementos que componen la zona que estudiamos, en base principalmente
a su forma o aspecto. Como veremos, la clasificación utiliza las propiedades de
cada píxel para asignarle una categoría, pero no tanto las de forma.
Decíamos al inicio del capítulo que podemos, a partir de imágenes, identificar
elementos y su características. Estos, sin duda, están relacionados, y las carac-
terísticas nos pueden servir para la propia identificación del elemento. Esta es
la forma de operar del proceso de clasificación, pero las características no son
suficientes. Por ejemplo, para buscar carreteras en una imagen podemos buscar
zonas asfaltadas (saber si la zona es de asfalto lo podemos hacer a partir de las
características de los píxeles, del mismo modo que visualmente lo identificaríamos
por su color), pero pueden existir explanadas asfaltadas que no constituyan una
carretera. Lo que nos lleva a determinar que una zona constituye una carretera
es, en conjunto con su características de color, la forma lineal que esta tiene, con
lo cual el análisis de las cualidades del píxel no resulta suficiente.
Del mismo modo, extraer la localización de cada árbol dentro de una masa
arbórea también requiere identificar estos por la forma de sus copas en la imagen,
al igual que, por ejemplo, la localización de edificios (Figura 16.26).
En cierta medida, el proceso de clasificación se basa de forma global en una con-
cepción ráster de los resultados a obtener, mientras que la extracción de elementos
enfoca dichos resultados como entidades vectoriales (que son, precisamente, esos
elementos a detectar). Por ello, tiene en realidad mucha relación con todo lo que
veremos en el capítulo 17. En conjunto con los conceptos que veremos entonces,
aplicamos también los que conocemos de este capítulo —tales como las firmas
espectrales—, así como las ya mencionadas ideas sobre clasificación que igualmente
se detallarán en breve.
Puesto que la forma es el componente base para la detección de elementos, exis-
te una relación lógica con aquellas operaciones que denominábamos morfológicas,
ya que estas operan sobre imágenes y modifican la forma con que dichos elementos
Procesado de imágenes 463
16.5. Resumen
Las imágenes son uno de los elementos base de los Sistemas de Información
Geográfica, y su análisis y tratamiento es una pieza clave dentro de los procesos que
pueden llevarse a cabo en estos. Estos procesos incluyen ideas propias del análisis de
imágenes digitales, en las que no se considera la naturaleza particular de las imáge-
nes que se usan en un SIG, así como otras en las que sí se considera de forma directa la
componente espacial y el significado físico de los valores que se recogen en cada píxel.
El tratamiento de las imágenes debe comenzar con la preparación y corrección
de estas, eliminando los efectos no deseados que los aparatos de registro o la propia
atmósfera, entre otros factores, hayan podido introducir en dichas imágenes.
La imagen corregida puede ser mejorada mediante algoritmos que hagan más
patente la información en ella contenida, realzando esta tanto de cara a su mero
análisis visual como para su posterior análisis mediante otras formulaciones espe-
cificas para el análisis de imágenes aéreas y de satélite. Estas otras formulaciones
permiten obtener, entre otros resultados, caracterizaciones de elementos del medio
como el suelo, la vegetación o el agua.
Capítulo 17
17.1. Introducción
La conversión de datos espaciales desde el modelo vectorial al modelo ráster
nos servía para obtener un dato espacial mucho más adecuado para el análisis.
Para variables continuas tales como la elevación, los datos vectoriales resultan más
difíciles de analizar, por lo que el tipo de conversión que vimos era un paso previo
para poder acceder a toda la potencia de análisis de un SIG.
Las ventajas del modelo ráster, que fueron comentadas con detalle en el capítulo
5, lo convierten en la opción preferida a la hora del análisis de variables continuas,
pero esta no es, ni mucho menos, la única tarea que podemos realizar en un SIG.
Para muchas de esas restantes tareas, el modelo vectorial es preferible, pues, como
ya vimos, también tiene su particular serie de ventajas.
Si en el capítulo 13 estudiábamos como convertir los datos vectoriales en datos
ráster, debemos ver de igual forma cómo proceder en sentido inverso cuando esto
sea posible, y mostrar qué formas vectoriales del dato espacial resulta posible
obtener a partir de una capa ráster. El proceso que vamos a ver no es sencillamente
el inverso de lo entonces presentado, sino que implica otra serie de operaciones.
Así, la conversión de puntos en una capa ráster, que nos ocupó la mayoría
de paginas en aquel capítulo, no tiene un equivalente en la conversión de una
capa ráster en una de puntos, pues esta segunda operación resulta obvia con los
conocimientos que ya tenemos. Basta aplicar las ecuaciones vistas en 14.3 para
calcular los valores de la variable en dichos puntos.
Otras operaciones, sin embargo, tales como convertir una capa ráster en una
capa vectorial no de puntos sino de isolíneas, sí que requieren algo más de expli-
466 Sistemas de Información Geográfica
cación. Más aún, resulta importante mostrar al lector que esos procesos existen
y son parte de los procesos que un SIG nos ofrece, para que pueda incorporarlas
a su batería de herramientas.
La coexistencia de los datos vectoriales y ráster no solo es una realidad, sino
que en gran parte de las ocasiones es una necesidad. A lo largo de las distintas fases
de trabajo dentro de un proyecto SIG, un mismo dato puede emplearse de varias
formas distintas con objeto de satisfacer las distintas necesidades que aparezcan.
Como muestra la figura 17.1, para una capa de elevaciones, las conversiones entre
modelos de datos aparecen en diversos puntos dentro de un ciclo de trabajo habi-
tual. Una de ellas es una conversión de vectorial a ráster tal y como las que vimos
en el capítulo anterior. Las restantes son en sentido inverso (de ráster a vectorial),
como las que trataremos en el presente.
Figura 17.2: Vectorización de capas ráster discretas en capas de polígonos (a) y de líneas
(b). .
.
distinta, ya que lo que a simple vista parece una misma línea o un mismo polígono
en el mapa escaneado, realmente no es un conjunto de celdas con un único valor (es
decir de un único color), sino con varios valores (colores) similares. Esta situación
hace más difícil trabajar con este tipo de capas a la hora de vectorizar y reconocer
las entidades que se deben vectorizar, y requiere procesos previos de tratamiento
para que ese mapa escaneado se encuentre en las mejores condiciones antes de
proceder a la vectorización. La figura 17.3 muestra una imagen que contiene líneas
y polígonos, y junto a ellas las representaciones de estas que resultan óptimas para
proceder a vectorizarlas como capas de líneas o capas de polígonos respectivamente.
Figura 17.3: b)Imagen con polígonos y lineas para vectorizar. a) y c) La misma imagen
tras ser trasformada con objeto de mejorar las condiciones para la vectorización (como
capas de líneas y polígonos respectivamente) y aumentar la calidad de esta.
.
topología a sus resultados, con lo que la operación no resulta tan sencilla como
en el caso de las curvas de nivel.
En resumen, la existencia de topología añade complejidad a la vectorización
de líneas. Aún así siempre resulta posible (y en muchos casos suficiente) vectorizar
estas y obtener como resultado una capa sin topología (spaguetti). Esta capa, ya
en el modelo vectorial, puede tratarse posteriormente para dotarla de la topología
necesaria, en caso de que así se requiera.
Figura 17.4: a) Imagen base con un polígono a vectorizar. Las celdas que forman el
contorno se muestran en gris. b) La imagen anterior tras un proceso de dilatación. c)
Contorno del polígono obtenido a partir de la diferencia entre las dos imágenes anteriores.
.
Figura 17.5: Mientras que en la vectorización de líneas (a) se toman las coordenadas
del centro de la celda, en el caso de polígonos (b) se deben utilizar las de los vértices para
delinear completo el contorno del objeto.
.
Los resultados en los dos supuestos representados en la figura son bien distintos,
a pesar de que el objeto a vectorizar es el mismo, pero en un caso se interpreta
como una línea y en otro como un polígono.
Un algoritmo para vectorizar el contorno de un polígono debe localizar una cel-
da de dicho contorno e ir avanzando hasta rodear por completo este, almacenando
las coordenadas de los bordes exteriores de todas las celdas recorridas. El avance
se detiene cuando se vuelve a la misma celda en la que se comenzó, momento en el
cual el proceso de vectorización queda completo. En [303] puede encontrarse con
más detalle la descripción un algoritmo de esta forma, parte de cuyos fundamentos
pueden emplearse igualmente para la vectorización de líneas.
Al igual que sucedía con dichas líneas, la complejidad del objeto puede presentar
problemas para su vectorización. El algoritmo anterior no contempla, por ejemplo,
la presencia de «huecos» en el polígono. Como ya conocemos, esos huecos son
polígonos internos que han de incorporarse a su vez a la entidad, y por tanto deben
ser a su vez vectorizados.
17.3. Isolíneas
Otro resultado vectorial que puede generarse a partir de una capa ráster son
las isolíneas o curvas de nivel. Aunque el caso más habitual es utilizarlas para
representar elevaciones (tal y como aparecen en un mapa topográfico habitual),
se emplean también para otro tipo de variables de tipo continuo tales como la
presión (isobaras), la precipitación(isoyetas) o el tiempo(isocronas). La forma de
obtenerlas a partir de una capa ráster es, no obstante, la misma en todos los casos.
Aunque, como ya sabemos, las variables de tipo continuo como la elevación
se recogen de forma más ventajosa en el modelo de representación ráster, y este
permite un mejor análisis de estas, hay diversas razones por las que puede resultar
476 Sistemas de Información Geográfica
De este modo, las curvas de nivel aportan una valiosa información adicional y
facilitan la interpretación de la variable principal (la pendiente), pero sin interferir
en la visualización de esta. Veremos más acerca de los mapas de isolíneas y su
representación en el apartado 27.6.3.
El calculo de curvas de nivel puede realizarse a partir de una capa ráster, pero
también a partir de una capa de puntos con datos de elevación. En este ultimo caso,
no obstante, ya sabemos que podemos convertir esos puntos en una capa ráster
mediante métodos de interpolación (según lo visto en el capítulo 13), y después
en base a este calcular las curvas de nivel. En esta sección trataremos únicamente
la delineación de curvas de nivel a partir de capas ráster.
Un método basado en triangulación para obtener curvas de nivel a partir de
puntos distribuidos irregularmente se detalla en [304]. Una revisión detallada de
métodos disponibles para esta tarea se puede encontrar en [305].
Respecto al cálculo a partir de una estructura regular como una capa ráster,
los algoritmos correspondientes no derivan únicamente del trabajo con SIG, sino
que se trata de un área muy desarrollada en el tratamiento de imágenes digitales.
Las curvas de nivel ponen de manifiesto las transiciones existentes en los valores
Creación de capas vectoriales 477
Figura 17.7: Posibles configuraciones de una celda según el algoritmo Marching Squares.
Los vértices en negro estan dentro de la curva de nivel, mientras que los blancos se
encuentran fuera.
.
En base a esto, se recorren todas las celdas, se analiza en cuál de las configuracio-
nes se encuentra cada una de ellas y, cuando corresponda, se traza una linea entre el
punto de entrada y de salida de la curva de nivel en la celda. Estos puntos se calculan,
al igual que ya veíamos para los métodos de seguimiento, mediante interpolación.
El algoritmo no establece relación alguna entre las celdas por las que pasa
una misma curva de nivel, sino que toma estas separadamente. Por ello, aunque
visualmente los tramos que resultan estén conectados, son considerados como
segmentos independientes a la hora de generarlos, y también a la hora de su manejo
una vez la capa de curvas de nivel ha sido creada.
Además de este inconveniente, el método presenta algunas ambigüedades, como
puede verse en la figura 17.7 para los casos 6 y 11. En estos supuestos no está clara
cuál es la forma en que la curva de nivel atraviesa la celda. En los métodos de
seguimiento no existe esta deficiencia, ya que se sabe desde qué celda llega la curva
de nivel.
Creación de capas vectoriales 479
4 7 5 d
6
5 6 9 5
4 3 6
Figura 17.8: La significancia de una celda es la media de las significancias según las
cuatro direcciones definidas. Para una dirección definida (en rojo), la significancia es la
distancia d entre la celda central y la recta que une las celdas de los extremos
.
17.4.2. Triangulación
Una vez se tiene el conjunto de puntos significativos, es necesario conectar estos
para formar la red de triángulos como tal, existiendo para ello existen diversas
metodologías.
Para una conjunto de puntos V , una triangulación es una conjunto de triángulos
que cumple las siguientes propiedades[312]:
El conjunto de todos los vértices de esos triángulos es igual a V
Cada lado de un triángulo contiene únicamente dos vértices.
La intersección de dos triángulos cualesquiera es nula
La unión de todos los triángulos forma la envolvente mínima convexa del
conjunto de puntos6 .
Los algoritmos de triangulación de un conjunto de puntos se basan la mayoría
en considerar la tarea como un problema de optimización, siendo diversos los
5
Realmente no es un TIN sensu stricto, puesto que no es irregular. Los vértices presentan
la misma estructura regular que caracteriza a la capa ráster de la que parte.
6
Este es un polígono de gran importancia que veremos en la sección 18.6.1.
Creación de capas vectoriales 481
17.4.3. Simplificación
Además de los métodos anteriores para seleccionar un conjunto reducido de
puntos significativos y los algoritmos para obtener una red de triángulos a partir
de estos, otro procedimiento importante es la simplificación de una red ya creada.
Como se muestra en la figura 17.10, pueden eliminarse puntos de una trian-
gulación y rehacer esta con los puntos restantes. Este es el fundamento del proceso
de simplificación, eliminando progresivamente vértices y, cada vez que uno de ellos
es eliminado, recalculando la triangulación de la mejor forma posible.
Este procedimiento de simplificación es similar al que vimos para el algoritmo
Creación de capas vectoriales 483
a) b)
de selección de puntos drop heuristic, que partía de un TIN muy denso con todas las
celdas ráster como vértices. Si en lugar de partir de dicho TIN se comienza con otro
calculado según algún otro algoritmo, este puede irse simplificando hasta alcanzar
un nuevo nivel de precisión fijado de antemano. La figura 17.11 muestra un TIN y dos
versiones simplificadas del mismo, de distinto grado de simplificación. Nótese cómo
en la imagen, si se eliminan puntos del exterior, varía el contorno de la triangulación.
Figura 17.11: TIN original (a) y dos simplificaciones (b, c) en base al anterior.
.
17.5. Resumen
Las capas ráster pueden convertirse en capas vectoriales empleando algoritmos
a tal efecto. Estos algoritmos pueden aplicarse sobre capas ráster de variables conti-
nuas o discretas, siendo distintos en cada caso. En el caso de variables discretas, las
capas vectoriales generadas definen las geometrías que las distintas clases dentro
de la capa ráster forman. Estas geometrías pueden ser poligonales o lineales.
En el caso de variables continuas, las capas vectoriales que se generan pueden
ser de los tres tipos básico de geometrías: puntos, líneas o polígonos. Para generar
una capa de puntos, la conversión no requiere ningún algoritmo específico, pues
basta calcular los valores de la capa ráster en las coordenadas de dichos puntos.
Para representar una variable continua mediante líneas, se crea una capa de iso-
líneas. Por último, para el caso de polígonos, una estructura como un TIN puede
generarse igualmente a partir de la capa ráster, seleccionando los puntos más
importantes y después triangulándolos.
Capítulo 18
Las capas vectoriales contiene una parte de información geométrica (las geometrías
como tales) y otra de carácter no geométrico (los atributos asociados) En este capítulo
veremos cómo a través de operaciones geométricas pueden modificarse,combinarse y ana-
lizarse esas geometrías, y cómo estas operaciones son en cierta medida las equivalentes
en el ámbito vectorial al álgebra de mapas ráster que vimos en el capítulo anterior.
Al igual que entonces, se requiere un buen conocimiento del formato vectorial,y en este
caso también conocer los cálculos básicos en R2 y las relaciones espaciales, que fueron ambos
descritos en el capítulo 10. Al final de este, habrás aprendido cómo llevar a cabo operaciones
espaciales con ambos modelos de representación, estando así ya en disposición de elegir
el más adecuado en cada caso y emplear eficientemente todo tipo de datos espaciales.
18.1. Introducción
El análisis de los datos ráster se basa fundamentalmente en el análisis de sus va-
lores. Esto es debido a que las entidades geográficas asociadas a esos valores (las cel-
das), presentan una regularidad estructural propia del formato, de la cual no se pue-
de derivar nueva información. Más aún, según vimos en el capítulo 14, resulta nece-
sario homogeneizar dicha estructura, lo cual centra la atención del análisis en los va-
lores recogidos y no en las formas geométricas a los que dichos valores caracterizan.
Con los datos vectoriales, la situación es diferente. En el caso de datos vecto-
riales, las entidades asociadas a cada atributo tienen sus propias características
espaciales y la geometría que definen sirve por sí sola para llevar a cabo numerosos
análisis. Si la unimos a los atributos que esta geometría lleva asociados, tenemos
la posibilidad de realizar un número mayor de estos análisis.
En este capítulo veremos una serie de operaciones que transforman los datos
vectoriales actuando sobre sus geometrías, con el concurso en algunos casos de
los atributos de estas. Los resultados de estas operaciones son nuevas capas cuyas
geometrías aportan información adicional a las geometrías originales, o bien las
transforman para que su uso sea más adecuado en otros análisis u operaciones.
Una buena parte de estas operaciones trabajan con dos capas, siendo similares
en concepto (que no en la naturaleza de las operaciones que implican) a las funcio-
nes de tipo local del álgebra de mapas, empleadas para combinar varias capas con
distintas valores. Otras requieren una sola capa, y aplican transformaciones en
486 Sistemas de Información Geográfica
a) b)
para puntos y líneas sean distintos, su significado es el mismo, y por ello pueden
utilizarse las zonas de influencia creadas a partir tanto de unas como de otras
geometrías, indistintamente.
den crearse capas de influencia variables que tengan en cuenta las características
puntuales de cada elemento geográfico. Es decir, se toma en cada caso la dimensión
del área de influencia de la tabla de atributos, en lugar de ser un valor fijo.
La figura 18.5 muestra el aspecto de una zona de influencia calculada a partir
de una red de drenaje, cuya dimensión se establece en función del orden jerárquico
de cada tramo.
Figura 18.5: Zonas de influencia variable establecidas en función de los ordenes de los
cauces.
18.3.1. Recorte
Una de las aplicaciones que veíamos de las funciones locales para capas ráster
era la combinación con objeto de restringir la extensión de una capa de entrada.
Utilizábamos una capa con la información de interés y otra con una «máscara»,
la cual indicaba qué celdas resultaba de interés preservar en la capa resultante.
En el caso vectorial, la operación de recorte toma una capa con cualquier
tipo de entidades donde se contienen los parámetros de interés, y otra capa de
polígonos que contiene aquellas regiones que resultan de interés. La capa resultante
mantiene el mismo tipo de información, pero solo mantiene aquellas entidades
492 Sistemas de Información Geográfica
Para los puntos, solo se mantienen aquellos que se sitúan dentro del polígono
de recorte. Para las líneas, se mantienen aquellas que entran dentro del polígono
o lo cruzan, recortándose para que no salgan de este. Y en el caso de polígonos,
estos se recortan para restringir su extensión a la del polígono de recorte.
Un aspecto muy importante en el recorte de capas vectoriales es el tratamiento
de las tablas de atributos asociadas a cada elemento. Salvo en el caso de puntos,
Operaciones geométricas con datos vectoriales 493
en el caso de recortar alguna capa de otro tipo, las geometrías de esta se modifican,
y en la capa resultante se contiene la geometría modificada y asociado a ella el
mismo registro original.
18.3.2. Diferencia
La diferencia es un operador contrario al recorte. En este último se mantienen
en la capa resultante las geometrías de la capa recortada, pero tan solo aquellas
que entran dentro del área de recorte definida por otra capa adicional (la capa de
recorte). En la diferencia el proceso es semejante, pero en este caso las zonas que se
mantienen son las que no entran dentro de la zona definida por la capa de recorte.
Puede entenderse como la realización de un recorte, pero en lugar de utilizando
un conjunto de polígonos de recorte, empleando su complementario.
Mientras que el recorte era útil para restringir la información de una capa vec-
torial a un área dada, la diferencia es útil cuando deseamos excluir dicho área de la
capa. Por ejemplo, dada una zona de influencia de un cauce, recogida esta en una ca-
pa vectorial de polígonos, puede interpretarse de cara a una planificación del terreno
como una zona no apta para la edificación. A la hora de llevar a cabo un estudio rela-
tivo a dicha edificación, es interesante eliminar las zonas de influencia, ya que no van
a tenerse en cuenta de ahí en adelante al no ser aptas para la actividad analizada.
Por su similar naturaleza, todas las consideraciones anteriormente hechas para
el caso del recorte deben igualmente tenerse presentes al aplicar la operación
diferencia.
18.3.3. Intersección
La intersección es equivalente a una operación booleana Y (AND), ya que la
capa resultante mantiene solo aquellas zonas para las que se dispone de información
en ambas capas de entrada. Es decir, aquellas zonas donde hay entidades en ambas
capas. En particular, estas entidades han de ser de tipo polígono.
A diferencia del recorte, la información empleada para crear la tabla resultante
no proviene únicamente de una capa (la capa recortada), sino de ambas capas de
origen. Por ello, se producen modificaciones en las geometrías, que se dividen (se
«trocean») según sea la intersección con las geometrías de la otra capa, y también en
las tablas de atributos. Los atributos de cada una de las nuevas entidades son todos
los asociados a las entidades que han dado lugar a dicha entidad intersección. Puesto
que solo se mantienen en la capa resultante las entidades donde exista coincidencia,
siempre habrá información en ellas sobre ambas capas. Es decir, la tabla de atributos
resultante tiene tantos campos como el conjunto de las dos capas de partida.
Puede verse un sencillo ejemplo en la figura 18.9.
El hecho de que en la tabla aparezcan dos campos con el mismo nombre no
implica que deban en modo alguno «mezclarse» los valores de estos. Simplemente
existirán en la tabla resultante dos campos distintos con un nombre coincidente.
Al igual que en el caso anterior, de existir capas con valores que guarden relación
con el área de cada polígono, los valores en las tablas pierden su significado al llevar
a cabo la intersección. De hecho, podrían existir en ambas capas de origen sendos
Operaciones geométricas con datos vectoriales 495
Figura 18.9: Interseccion entre dos capas de polígonos, mostrando las geometrías y la
tabla de atributos resultante.
campos con un valor de área, que aparecerían ambos en la tabla de la capa resultante.
Ninguno de ellos, no obstante, sería aplicable a la entidad a la que hacen referencia.
Este caso que acabamos de ver es idéntico en concepto al que veíamos en el
apartado 14.2.1 sobre combinación de capas mediante el álgebra de mapas. No
obstante, si se recuerda lo visto entonces, era necesario codificar de forma particular
los valores en las capas de entrada para llevar a cabo correctamente la operación de
combinación. Esto era así porque la capa resultante debía contener la información
de las dos capas de entrada (tipo de suelo y uso de suelo, en aquel ejemplo), pero
debía almacenar dicha información en un único valor, ya que una capa ráster tiene
tan solo un valor asociado a cada celda.
Al trabajar con capas vectoriales, no existe esa limitación, y cada entidad puede
llevar asociados tantos campos como se quiera. Por esta razón, no es necesario
«preparar» las capas de entrada y modificar sus valores, ya que toda la información
que contienen puede incorporarse a la capa resultante sin más que añadir los
campos en los que se encuentra.
18.3.4. Unión
Si la intersección se puede asimilar a un operador lógico Y (AND), la unión es
semejante al operador lógico O (OR). En la capa resultante del proceso aparecen
todas las geometrías de la intersección y, junto a estas, también aquellas que
corresponden a las zonas que aparecen únicamente en una de las capas de origen.
Al cruzar estas capas, y al igual que en el caso de la intersección, sus geometrías
se «trocean», pero en este caso todos esos «trozos» obtenidos aparecen en la capa
resultante, y no solamente algunos de ellos.
De esta forma, y al unir dos capas de polígonos, encontraremos en la capa
496 Sistemas de Información Geográfica
resultante zonas que están cubiertas por uno de ellos perteneciente a la primera
capa, o bien por uno de la segunda capa, o bien por polígonos de ambas capas.
Si, por ejemplo, esas capas representan zonas de influencia de sendos procesos,
podremos de este modo conocer qué procesos afectan a cada una de las geometrías
resultantes, y saber si, dentro del perímetro de dicha geometría, estamos dentro
de la zona de influencia de ambos procesos, o bien solo en la de uno de ellos.
En general, la unión resulta de interés cuando estudiemos la existencia de dos
fenómenos y queramos ver dónde tiene lugar al menos uno de dichos procesos. En
la intersección buscábamos conocer en qué lugares tenían lugar los dos fenómenos
simultáneamente.
La tabla de atributos correspondiente es igual a la de la intersección, con tantos
campos como el conjunto de las dos capas de partida. En este caso, no obstante,
y por existir polígonos resultantes que no aparecerían en la intersección (zonas
donde solo uno de los fenómenos representados se produce), aparecerán campos sin
información, ya que no existen información suficiente para asignarse en esos casos.
La figura 18.10 muestra un ejemplo de unión de capas vectoriales.
ID (a) ID (b)
a) 1 1
2
ID (a) ID (b)
1 1
1
b) 1
2
Figura 18.10: Unión de dos capas de polígonos, mostrando las geometrías y la tabla
de atributos resultante.
lugar a polígonos adicionales que no deberían estar ahí. Estos, además, serán de
pequeño tamaño, ya que las imprecisiones son pequeñas en relación al tamaño de
las geometrías intersecadas. Estos polígonos son artificios fruto de las imprecisiones
existentes en las capas sobre las que se realiza la operación geométrica en cuestión,
y su eliminación es un paso complementario a dicha operación, el cual debe llevarse
a cabo igualmente.
La aparición de polígonos espúreos (también frecuentemente citados en su
denominación inglesa, sliver polygons) puede evitarse a la hora de realizar la
intersección, incorporando en los algoritmos correspondientes una cierta tolerancia
que permita que líneas distintas puedan tratarse como idénticas(como deberían
ser en realidad), siempre que la diferencia entre ellas no supere dicha tolerancia.
Otra solución es la eliminación a posteriori, tratando de localizar los polígonos
espúreos diferenciándolos de aquellos que sí representen regiones reales que deben
conservarse. Algunas de las características que suelen presentar habitualmente
y que pueden emplearse para esa distinción son:
Pequeño tamaño
Forma alargada
Bajo número de lados. Son polígonos simples con pocos segmentos.
La figura 18.11 muestra un ejemplo de la aparición de este tipo de polígonos.
+ =
Figura 18.11: Aparición de polígonos espúreos de pequeño tamaño tras el solape entre
capas con discrepancias.
Figura 18.12: Ejemplo de las tablas y entidades resultantes tras juntar dos capas.
Para aplicar esta operación de forma coherente y que la tabla generada según
lo anterior tenga pleno sentido, ambas capas de origen tienen que contener no solo
el mismo tipo de entidades, sino también información de índole similar. Salvo en
contadas ocasiones, no tiene sentido unir, por ejemplo, una capa de polígonos y
otra de líneas, y será mejor mantenerlas independientes a todos los efectos. De
Operaciones geométricas con datos vectoriales 499
modo similar, tampoco tiene sentido unir una capa de polígonos con valores de
uso de suelo y otra con límites administrativos, ya que las tablas de datos de estas
serán bien distintas y el resultado será poco coherente. La similitud en cuanto al
tipo de entidad no garantiza que la operación tenga sentido.
La operación de juntar capas es útil en muchas circunstancias en las cuales se
dispone de datos geográficos de distintas procedencias o que, por su propio origen,
vienen divididos en partes. Un caso frecuente es el de disponer de la información por
hojas coincidentes con la cartografía clásica, tales como las hojas proporcionadas
por los Institutos Geográficos o instituciones similares. Si la zona estudiada cubre
varias de estas hojas, tendremos los datos divididos en tantas capas distintas como
hojas cubiertas. Sin embargo, lo ideal sería tenerlas todas en una única capa.
Esta conveniencia no solo es relativa al manejo de la capa, sino también para
otros aspectos tales como el análisis o incluso la visualización. A la hora de analizar
los datos, muchas formulaciones utilizan no solo la geometría o los valores asociados
a esta, sino también la relación con otros elementos de la misma capa. Tal es el
caso en el análisis de redes, por ejemplo. Si la red de carreteras que recorre esas
hojas en las que se sitúa la zona de estudia se encuentra en diversas capas, no se
refleja la conectividad entre las carreteras de distintas hojas. Deben juntarse en
una única antes de poder analizarlas conjuntamente.
Otras operaciones no requieren de esa conectividad, pero el aplicarlas sobre la
información contenida en las capas implica hacerlo tantas veces como capas existan.
En lugar de calcular, por ejemplo, un área de influencia de dichas capas, hay que
calcular ese mismo área para cada capa. Después estas zonas de influencia podrían
juntarse en una sola capa, pero resulta más lógico hacerlo a priori y después operar.
Juntando las capas, la visualización también se ve afectada. Además de no
poder analizar conjuntamente ese conjunto de carreteras cuando están en capas
separadas, tampoco pueden modificarse conjuntamente los atributos de represen-
tación. Cambiar el color o el grosor de las líneas que representan las carreteras
implica cambiar ese color o grosor para cada una de las capas, para que el resultado
sea visualmente homogéneo.
Si la paleta de colores no es de tipo absoluta y no utiliza una tabla de asignación,
sino que adapta una rampa de colores entre los valores mínimos y máximos del
campo utilizado para asignar los colores, es absolutamente necesario unir las capas
que queramos para conseguir un resultado coherente. De otro modo, la misma
rampa de colores no representará lo mismo en cada capa, ya que los máximos y
mínimos entre los que se adapta serán distintos para cada parte (cada capa), y
en el caso más habitual distintos asimismo de los correspondientes al total de los
datos de la zona de estudio.
Por ejemplo, sean dos capas de polígonos, una con los países de Asia y otra con
los de Europa. Si las representamos conjuntamente pero como capas separadas
según lo anterior, y lo hacemos en función de su población, tendremos que China
tendrá el mismo color asociado que Alemania (ambos son los países más poblados
500 Sistemas de Información Geográfica
de cada continente), pese a que la población del primero es 15 veces mayor que
la del segundo. Juntando las capas lograremos una representación coherente. Este
mismo ejemplo lo veremos de modo gráfico en el capítulo 22.
Pueden juntarse capas no solo porque abarquen áreas distintas con una misma
información, sino también si cubren el mismo área pero con informaciones distintas.
Estas informaciones deben compartir, no obstante, algún rasgo común. Una capa
de carreteras y otra con caminos pueden juntarse para formar una capa con las
vías existentes en la zona de estudio.
los valores estimados dentro de la envolvente convexa mínima son producto de una
interpolación, mientras que estimar valores fuera de dicha envolvente constituye
en realidad un proceso de extrapolación.
El polígono que define a la envolvente mínima convexa puede ser empleado
asimismo como dato de entrada para otras operaciones geométricas. Dados, por
ejemplo una serie de puntos en los que ha aparecido una enfermedad infeccio-
sa,puede calcularse la envolvente mínima convexa y a partir de ella calcular una
zona de influencia con una distancia definida en función de la capacidad de pro-
pagación de la enfermedad. El nuevo polígono resultante representa la región que
puede verse afectada por dicha enfermedad.
Una serie de envolventes convexas sucesivas sobre un conjunto de puntos forma
una teselación en capas en forma de cebolla1 , de utilidad para la realización de
diversos análisis estadísticos sobre dichos puntos (Figura 18.15).
Figura 18.15: Serie de contornos convexos formando una teselacion en capas (onion
peeling).
Figura 18.16: Círculo de radio mínimo que engloba a una serie de puntos.
Reducción del tamaño de los datos. Una reducción del número de pun-
tos elimina puntos en muchos casos superfluos, de tal forma que la capa
simplificada presenta la misma utilidad pero ocupa un espacio menor.
Reducción del tiempo de proceso. La capa generalizada se maneja de
forma más rápida en operaciones tales como la representación en pantalla,
la impresión, o la realización de otros cálculos. En términos generales, todos
los cálculos con la linea generalizada, como por ejemplo el trazado de una
zona de influencia o de cualquier otro de los procesos vistos en este capítulo,
se efectúan con un menor costo de proceso, ya que requieren el análisis de
un menor número de puntos. Otros procesos tales como la conversión de esa
capa en una capa ráster también experimentan una ganancia en rendimiento.
En ocasiones, la simplificación puede implicar la reducción de elementos más
allá de puntos aislados, tal y como operan los algoritmos que a continuación
veremos. Eliminando puntos a lo largo de una línea puede lograrse el resultado
buscado, reduciendo el detalle longitudinalmente, pero un cambio de escala pue-
de también implicar la necesidad de eliminar no únicamente puntos, sino líneas
completas. Por ejemplo, si una capa de líneas recoge con detalle una vía mediante
dos líneas, una para cada borde de la misma, no tiene sentido emplear una capa
de tal detalle para un mapa a una escala tal como, por ejemplo, 1:200000. En
este caso, puede sustituirse el par de líneas anteriores por una única, ya que la
variación en el resultado no será perceptible. La simplificación de las líneas en
este caso debe operar sustituyendo dos líneas por una única. Si esa carretera
queda recogida mediante un polígono, puede simplificarse mediante un proceso
de «adelgazamiento» que convierta este en una línea central. La obtención de este
eje del polígono se hace con un proceso que es similar a la zona de influencia hacia
el interior de un polígono, la cual veíamos al principio de este mismo capítulo.
Una operación también relacionada con la generalización de líneas es el sua-
vizado. En muchas ocasiones, las líneas de una capa vectorial son excesivamente
angulosas y no presentan un aspecto natural, muy distinto del trazo suave con
que un cartógrafo trazaría las mismas al realizar un mapa. Alterando el conjunto
de puntos de la línea de forma similar a lo visto anteriormente, puede lograrse
un redondeo en las curvas definidas por este. Dicho redondeo puede buscarse con
meros fines estéticos, pero también para eliminar variaciones bruscas o desviaciones
locales, manteniendo tan solo la forma general de la linea. Este es, por ejemplo,
el proceso que debe realizarse si deseamos utilizar las lineas a una escala de menor
detalle que la que originalmente se empleó en su creación.
El suavizado de líneas es también útil como preparación de datos de líneas
procedentes de un proceso de digitalización. Aunque muchos elementos naturales
tienen formas redondeadas, es habitual que el encargado de llevar a cabo esa
digitalización genere elementos más angulosos que el objeto real que se digitaliza.
Algo similar sucede cuando las operaciones de vectorización se realizan de
forma automática, tales como las que vimos en en capítulo 17. El suavizado de
Operaciones geométricas con datos vectoriales 507
las líneas mejora en tal caso la calidad de estas, no solo en su aspecto estético, sino
también en muchos casos su similitud con el objeto modelizado, pues se trata de
formas más naturales(Figura 18.18).
Figura 18.18: Suavizado de una línea procedente de vectorización a partir de una capa
ráster. En negro, línea original con esquinas angulosas. En rojo, línea suavizada.
18.7.1. Métodos
Los algoritmos para la generalización de líneas son muy diversos y tienen
cada uno sus propias características de precisión y rendimiento. La forma más
simple de generalización consiste sencillamente en eliminar puntos sin considerar
la relevancia de estos dentro de la línea. Esta eliminación puede realizarse de
forma sistemática (eliminar un punto de cada n), o bien aleatoria. La magnitud
del proceso de generalización se mide por el número total de puntos eliminados.
No obstante, no todos los puntos de un línea tienen la misma importancia
y aportan la misma cantidad de información. Algunos puntos pueden resultar
redundantes, mientras que otros pueden ser cruciales para la forma del trazado.
Como puede verse en la figura 18.19, eliminar algunos puntos puede no tener
apenas efectos sobre la línea original o bien resultar en una variación drástica de
su forma. Un mismo número de puntos eliminados puede dar lugar a lineas muy
similares o muy distintas a la original, según sea el caso, por lo que esta medida
de la simplificación no es una medida de cuan fidedigna es la linea resultante.
Puesto que no todos los puntos deben ser considerados de igual modo, existen
métodos de simplificación que consideran la naturaleza propia del punto dentro
de la línea y estudian esta como entidad en su conjunto. Esto garantiza resultados
mejores que con la mera eliminación sistemática de puntos intermedios.
Podemos clasificar las rutinas de generalización de líneas en los siguientes
bloques [322].
508 Sistemas de Información Geográfica
Figura 18.19: La eliminación de puntos de la linea original (a) puede dar lugar a líneas muy
similares (b) o muy distintas (c), ya que no todos los puntos tienen la misma importancia.
18.8. Resumen
Las operaciones geométricas sobre entidades vectoriales constituyen en cierta
forma el equivalente del álgebra de mapas ráster sobre las capas vectoriales.
Las operaciones más importantes son el cálculo de zonas de influencia y las
denominadas operaciones de solape, que permiten combinar capas de diversas
formas. Entre estas encontramos las operaciones de intersección, unión, diferencia
y recorte, así como el juntado de capas. Aunque producen transformaciones geo-
métricas en las entidades de las capas de entrada, las tablas de valores asociadas
deben considerarse y tratarse con precaución, pues dichas transformaciones pueden
afectar a la validez de los datos que contienen.
Las tablas pueden también usarse para definir otro tipo de operaciones tales
como la disolución, en la que se unen regiones que comparten algún atributo común.
Por último, las operaciones de generalización de líneas son útiles para disminuir
el tamaño de los datos vectoriales, con las ventajas de manejo y proceso que ello
conlleva.
Capítulo 19
19.1. Introducción
Desplazarse entre dos puntos cualesquiera del espacio implica un coste. Cuanto
más alejados se encuentren estos, llevará más tiempo efectuar ese desplazamiento
y se consumirá más energía, entre otras cosas. La distancia como tal, así como el
tiempo o la energía gastada, son ejemplos de variables de coste.
Un coste expresa la resistencia ofrecida por el medio para desplazarse a través
de él en un punto concreto.
El análisis de capas que contengan variables de este tipo nos permite calcular
los costes globales de desplazarse a lo largo de toda la extensión de la capa, así
como evaluar la mejor forma de hacerlo para minimizar dicho coste.
Las variables que podemos utilizar como coste son muy diversas, y este tipo
de análisis es de gran utilidad para todos aquellos procesos que impliquen algún
tipo de movimiento.
De este modo, el concepto de distancia puede «ampliarse», y con él todas sus
implicaciones. Por ejemplo, las zonas de influencia no solo pueden definirse con
la mera distancia euclídea, sino en base a otros factores. Así, podemos incorporar
el hecho de que, mediando la misma distancia entre una celda y un conjunto de
512 Sistemas de Información Geográfica
otras dadas, la facilidad de recorrer esta distancia sea diferente, y por tanto no
ejerzan todas la misma influencia sobre la primera.
La delimitación de zonas de influencia sobre una base ráster permite no solo
introducir estas ideas, sino también aportar más flexibilidad al proceso, pudiendo
emplearse parámetros adicionales que condicionen la forma de llevarlo a cabo en
cada punto.
1 3 5 9 6 0
3 5 2 2 3 4
7 2 8 1 1 4
2 5 6 6 5 3
1 9 3 4 2 8
5 7 2 1 8 6
Figura 19.1: Una superficie de fricción permite calcular el coste de una ruta definida
sobre ella.
c1 +c2
c= (19.2.1)
2
siendo c1 y c2 las fricciones respectivas de las celdas entre las cuales se produce
el desplazamiento.
Si nos movemos en dirección diagonal, el coste que este movimiento supone es
√ c1 +c2
c= 2 (19.2.2)
2
√ √
1 3 3 2 2 2 2 2 2 1
+ + + + + + +
2 2 2 2 2 2 2 2
514 Sistemas de Información Geográfica
tres puntos de destino y una superficie de fricción constante. Puesto que la superficie
de fricción es constante, dicho coste acumulado es proporcional a la distancia.
Figura 19.2: Capa de coste acumulado para tres puntos de destino y con una superficie
de fricción constante. Para lograr una visualización más explícita se ha añadido un
sombreado en función del propio coste.
a) b)
tipo anisotrópico. Junto al caso de la pendiente, otro ejemplo claro de esto es, por
ejemplo, la resistencia que el viento ofrece al movimiento. Si usamos como coste
el tiempo que se tarda en atravesar cada celda, y este tiempo lo calculamos según
la velocidad máxima a la que podamos desplazarnos, es obvio que esta velocidad
máxima no será la misma si vamos en contra del viento que si vamos a favor. En
general, la mayoría de procesos son de tipo anisotrópico, aunque muchos de ellos
pueden simplificarse y estudiarse como procesos isotrópicos.
El concepto de superficie de fricción debe extenderse para acomodar este nuevo
tipo de modelos. La capa con valores unitarios no es suficiente, ya que estos reflejan
únicamente el coste en una dirección de todas las posibles. La solución habitual
es recoger en la superficie de fricción los valores de coste máximo (el que se tendría
desplazándose en contra del viento o hacia arriba de la ladera por la línea de
máxima pendiente), y acompañar esta de una capa adicional con las direcciones en
las que dicho coste máximo se produce. En el caso de la pendiente, esta dirección la
podríamos obtener con la orientación en la celda, y en el caso del viento tomando
la dirección opuesta a aquella en la que este sopla en cada celda.
Junto a esto, se define una función que, en base a la desviación angular respecto
a la dirección de máximo coste, permite calcular los costes unitarios (fricción
efectiva) en cualquier dirección. Con estos elementos ya podemos trabajar sobre
la capa, estudiar el coste de una ruta concreta entre dos puntos, o crear una capa
de coste acumulado de la misma manera que antes lo hacíamos con una capa de
coste unitario isotrópico.
Una posible forma para la función anterior es la siguiente:
considerar también las direcciones de coste máximo. Sólo si estas fuesen idénticas po-
dríamos sumarlas y obtener una nueva superficie de fricción, que utilizaríamos con
la capa de direcciones de máximo coste de cualquiera de ellas. Este caso, no obstante,
es altamente improbable. Incluso puede darse que en un punto el coste máximo de un
factor coincida con el mínimo de otro, por ejemplo si el viento sopla pendiente arriba.
El problema estriba en la capa de direcciones, que por contener un parámetro
circular tal como se vio al tratar la orientación en 15.5.1, no pueden utilizarse las
operaciones aritméticas y estadísticas de la forma habitual. Este caso es similar
a lo visto en 12.3.
Al igual que lo visto entonces, la forma de proceder en este caso en considerar
el binomio coste–dirección (c,β) como un vector y convertirlo en sus componentes
en los ejes cartesianos (x,y) según las expresiones
Figura 19.6: Representación tridimensional de una capa de coste acumulado y una ruta
óptima sobre esta.
capa. Por tanto podemos utilizar modelos de dirección similares a los mostrados
para el caso del análisis hidrológico (15.6.1). En particular, un modelo sencillo
como el D8 en el que el flujo se desplaza hacia la máxima pendiente.
Por la propia forma en la que se construye la superficie de coste acumulado,
no existen sumideros aparte de las propias celdas de destino, y siempre existe
una celda de menor valor alrededor de cualquier otra, excepto en dichas celdas
de destino, que son mínimos absolutos.
cada celda de las que conforman el objeto, teniendo cada una una capacidad
distinta de ejercer su influencia sobre el medio circundante.
Frente al cálculo de zonas de influencia que vimos para las capas vectoriales, la di-
ferencia estriba en que en este caso no se trata de una operación geométrica, y de que
la zona no es «exacta», pues su forma y precisión depende de la resolución de celda.
que cuanto más costoso sea llegar a una zona desde un punto de destino, menos
influencia existirá del uno sobre el otro, así como del otro sobre el uno.
Por otra parte, este mismo proceso lo podemos realizar utilizando otras super-
ficies de fricción, sean isotrópicas o anisotrópicas, sin estar limitados al caso de
la distancia euclídea. En el caso vectorial, este cálculo no es posible desarrollarlo,
ya que se trata de un proceso meramente geométrico sin el concurso de capas
adicionales de fricción. Por ejemplo, la figura 19.8 muestra la misma zona de
influencia anterior, con la misma distancia máxima, pero en este caso se trata de
una distancia hidrológica en lugar de una euclídea.
Figura 19.9: Zona de influencia de una especie dada su área de residencia y un coste
máximo de desplazamiento.
y sin aplicar los conceptos de creación de capas de coste acumulado. En este caso
basta tomar todas aquellas celdas que constituyen los objetos centrales (las celdas
de destino en el caso del análisis de coste) y marcar con un valor establecido las
celdas circundantes a una distancia menor que la distancia de influencia escogida.
Se trataría de un análisis focal con una ventana de análisis circular de radio igual
a la distancia de influencia, en la que los valores dentro de esta reciben todos el
mismo valor. Obviamente, los resultados que pueden obtenerse de este modo son
más limitados que aplicando toda la potencia del análisis de costes.
Figura 19.10: Zona de influencia (en azul) de una vía (en rojo) , suponiendo que es
posible el desplazamiento desde esta siempre que la pendiente no supere el 5%. En el
fondo, mapa de pendientes. Tonalidades más oscuras indican mayor pendiente.
mucho más complejo que lo que vamos a ver, y se requieren más datos, pero
podemos plantear una primera aproximación al estudio de ese área de inundación,
pues no deja de ser una zona de influencia.
Si en el caso del vehículo teníamos un umbral fijo, ahora este umbral es variable
y depende del calado. Como muestra la figura 19.11, para una elevación z en la
celda de cauce y un calado h, el agua podrá inundar aquellas celdas contiguas con
elevación menor que z +h. Si tomamos la capa de calado y le sumamos el MDE,
tendremos una capa de cauces en las que sus celdas representan los puntos de
destino1 , y además cada una de ellas contiene el valor de umbral. Es decir, que
al operar según se explicó anteriormente para crear la capa de coste acumulado,
el umbral dependerá de la celda concreta desde la que nos venimos desplazando.
Las celdas por debajo del umbral son viables, mientras que las superiores, no. Este
modelo es similar al que planteábamos al analizar la distancia hidrológica, solo
que en este caso el umbral que aplicamos no es sobre el coste acumulado, sino que
lo usamos para calcular en cada celda los costes unitarios. Para aquellas celdas
que superan dicho umbral, el coste es infinito. Para las restantes, nulo.
de la ruta de menor coste entre dos nodos de dicha red es un problema típico que
tiene numerosas aplicaciones incluso fuera del ámbito geográfico, y constituye una
aproximación diferente a la que ya conocemos para el caso ráster.
En el supuesto de un desplazamiento por una red viaria, la división del terreno
en unidades regulares que implica el modelo ráster no es adecuada, y resulta mucho
más lógico un modelo vectorial que contenga las vías y los emplazamientos entre los
que estas se sitúan, recogiendo igualmente la topología de la red. Esta estructura
es óptima no solo para el almacenamiento y manejo, sino también para el análisis
de costes, como a continuación veremos.
El análisis de costes ráster tal como lo hemos visto permite modelizar los costes a
través de vías y el movimiento restringido a estas. Basta excluir las celdas fuera de las
vías (asignándoles coste infinito o valores de sin datos) y operar de la forma habitual.
No obstante, el hecho de que exista dicha restricción (al analizar un coste de
desplazamiento por vías, no podemos abandonar estas), favorece la utilización de un
modelo vectorial para estos casos, haciendo que resulte más lógico. Otros elementos
de la vía, como el hecho de que algunas de ellas puedan recorrerse únicamente en
una dirección, se recogen mejor mediante un modelo de representación vectorial,
como ya vimos en el capítulo 5 al introducir el concepto de topología (de ese capítulo
deberías recordar también los conceptos de arco y nodo, que aquí resultan básicos)
Este es el tipo de modelo que implementan, por ejemplo, los navegadores GPS,
ya que el movimiento que estudian y sobre el cual nos informan se realiza siempre
por una red de carreteras y calles. Sin embargo, si lo que pretendemos es calcular un
coste de desplazamiento no confinado a una vía (por ejemplo, para calcular la ruta de
menor coste caminando campo a través), es el modelo ráster el que debemos utilizar.
Aunque formalmente son distintos tanto los modelos de representación como
los casos particulares de análisis, la implementación de los algoritmos de cálculo
de rutas de mínimo coste es en cierta medida similar. Así, los algoritmos sobre
una base vectorial comparten elementos con los que ya conocemos para el análisis
ráster. Estos algoritmos en realidad derivan todos ellos de la denominada teoría
de grafos, una rama de la matemática que se encarga de trabajar con un tipo de
estructuras denominadas grafos, de los cuales una red es una caso particular2 .
El cálculo de rutas óptimas es una de las áreas más trabajadas dentro de la
teoría de grafos, y por ello existen muchos algoritmos distintos. El más popular
de todos ellos es el propuesto por Edsger Dijkstra, que es en cierto modo en el
que se basan las metodologías que hemos visto para el caso ráster. En realidad,
las celdas de una capa ráster pueden entenderse también como una estructura de
nodos conectados (una red), con la particularidad de que estas conexiones tienen
una carácter sistemático: cada celda (nodo) está conectado siempre a las ocho que
se sitúan entorno a ella, y únicamente a estas.
2
Para el lector que desee conocer la parte estrictamente matemática de esta disciplina, pueden
encontrarse interesantes libros sobre teoría de grafos en las direcciones Web [330] y [331].
528 Sistemas de Información Geográfica
Figura 19.12: Ejemplo de aplicación del algoritmo de Dijkstra para cálculo de rutas
de mínimo coste. De izquierda a derecha, etapas sucesivas de asignación de coste por
nodos (Adaptado de Wikipedia).
Una solución más adecuada es optar por una estructura que trate de reducir la
longitud total de la red, pero garantizando una conectividad más robusta. El MST
guarda mucha relación con una estructura que ya conocemos, la triangulación de De-
launay, ya que se forma como un subconjunto de las líneas que conforman esta (pue-
de consultarse por ejemplo[337] para ver detalles acerca del algoritmo de cálculo del
MST a partir de la triangulación). Si de ese conjunto total de la triangulación se to-
man las líneas del MST y algunas adicionales, pueden obtenerse estructuras que so-
lucionan de manera óptima el problema de conectar un conjunto de puntos con un di-
seño de red robusto. Un ejemplo de ésto son las denominadas redes de Gabriel [338].
También en cierta forma relacionado con los problemas anteriores, un enun-
ciado clásico con gran aplicación en el ámbito SIG es el conocido como problema
del viajante o TSP3 . Dado un conjunto de puntos, se trata de calcular la forma
3
Travelling Salesman Problem
530 Sistemas de Información Geográfica
de visitar todos ellos en un orden dado y regresando al punto inicial, de tal modo
que el recorrido total tenga la mínima longitud posible.
Este problema es uno de los problemas más conocidos dentro del campo de
la optimización combinatoria, y se se encuadra dentro de los conocidos como
NP–Hard. La forma más directa y simple de resolver este problema es probar
todas las posibles rutas y elegir la más corta. Sin embargo, debido al crecimiento
exponencial del número de posibilidades, este planteamiento es inviable, y se ha
de optar por métodos de resolución aproximada. Dado el grado de estudio este
problema, estas soluciones son muy variadas, y existe bibliografía muy abundante
al respecto. Pueden consultarse más sobre formas de resolución del TSP en [339].
En relación con los SIG y, particularmente, con el tema de este apartado, el pro-
blema del viajante cobra interés cuando se considera, al igual que ya veíamos para
el MST, que las distancias entre los distintos puntos no han de ser necesariamente
euclídeas, sino que pueden ser distancias a través de una red. Así, si una persona ha
de visitar un número dado de emplazamientos dentro de una ciudad desplazándose
en un automóvil, el orden óptimo en que debe hacerlo es el que se obtendría
como solución al problema del viajante para dichas localizaciones, y tomando las
distancias entre estas como distancias por las calles de la propia ciudad.
Independientemente de la métrica empleada para calcular la distancia entre
puntos, la solución del problema se puede realizar empleando la misma metodología.
En la figura 19.14 puede verse el circuito óptimo para el conjunto de puntos
empleado en el ejemplo anterior de la figura 19.13.
Para concluir este apartado, comentar que el concepto de buffer vectorial puede
extenderse si disponemos de una red sobre la que calcular distancias, haciéndolos
más similares a los que hemos visto para el caso ráster, donde la anchura de estos
era variable y no se presentaba la característica simetría de los que vimos en el
capítulo 18. Sobre dicha red, podemos calcular puntos a una distancia dada, y con
ellos crear el polígono que delimita la zona de influencia.
La figura 19.15 muestra una red viaria con costes asociados, y una posible zona
de influencia basada en dichos costes en lugar de en distancia euclídea.
Figura 19.15: Zona de influencia de un punto considerando distancias sobre una red
en lugar de distancia euclídea.
19.8. Resumen
Las superficies de fricción contienen valores de coste que expresan la resistencia
que presenta una celda a ser recorrida. Estos costes pueden reflejar muchos distintos
factores, siendo la distancia uno de ellos.
Con una superficie de fricción y un conjunto de puntos de destino, se calculan
capas de coste acumulado. Empleando estas es posible calcular rutas óptimas que
nos definen la ruta de menor coste desde un punto dado hasta el punto de destino
más cercano (en términos de coste).
Empleando las ideas del análisis de coste se definen zonas de influencia tanto
de dimensión fija como de dimensión variable, y puede estudiarse asimismo la
influencia conjunta de una serie de elementos geográficos sobre el entorno inmediato
de estos.
Aunque el análisis de costes y superficies de fricción es un análisis con elementos
ráster, las redes vectoriales con topología permiten un análisis distinto para calcular
rutas óptimas entre puntos dados de dichas redes.
532 Sistemas de Información Geográfica
Capítulo 20
20.1. Introducción
Prácticamente todas las formulaciones estadísticas pueden aplicarse a datos
geográficos de igual forma que se aplican a datos de otro tipo. No obstante, la
particular naturaleza de la información geográfica hace que algunas de estas for-
mulaciones puedan adaptarse de forma específica para obtener resultados más
correctos. En particular, la inferencia estadística presenta, como ya vimos, una
serie de peculiaridades que hacen conveniente su adaptación para considerar la
especial naturaleza debida a la presencia de una componente espacial.
En este capítulo, intentaremos profundizar algo más sobre el empleo de estas
herramientas estadísticas dentro del ámbito de un SIG, viendo, entre otros, los
métodos de regresión que consideran explícitamente la componente espacial de
los datos, así como las metodologías que constituyen la base para la creación de
modelos predictivos, de gran aplicación dentro de los SIG.
Asimismo, existe una operación estadística con un particular peso dentro del
ámbito del SIG: la clasificación, la cual constituye un elemento básico especialmente
en el tratamiento de imágenes y la creación de datos espaciales de carácter temático
a partir de estas. Dedicaremos gran parte del capítulo a detallar los pormenores del
proceso de clasificación y algunas, las más populares, de sus muy diversas variantes.
Ya conocemos algunas formulaciones que nos permiten, a partir de una capa rás-
ter (sea una imagen o no), obtener capas vectoriales o nuevas capas ráster de variable
discreta, conteniendo una información adecuada para ser expresada en formato
vectorial, de forma similar a las operaciones de clasificación. El capítulo dedicado al
procesado de imágenes contenía algunas de estas formulaciones, basadas en aquel
534 Sistemas de Información Geográfica
20.2. Clasificación
La clasificación es una operación muy habitual dentro del análisis SIG, pues per-
mite establecer una categorización de un área de estudio a partir de una serie de va-
riables, con la utilidad que ello conlleva para otros análisis. Esencialmente, el proceso
de clasificación convierte una serie de capas en otra única con información categórica.
Las capas de origen suelen contener en general variables de tipo continuo, aunque no
necesariamente. Se trata de, en función de la información disponible sobre un área
geográfica, clasificar de acuerdo con algún criterio las distintas zonas de la misma.
Esta clasificación se desarrolla mediante procedimientos diversos que evalúan
a cuál de las clases posibles es más similar un punto dado. En dicho punto, se
toman los valores de todas las variables registradas y ese conjunto de valores es
el utilizado para calcular el grado de similitud entre la clase presente en el punto
(aún no determinada) y las distintas clases posibles.
Más estadística espacial 535
Paralelepípedos
Una característica de este método es que pueden existir elementos que no pue-
dan ser clasificados al no caer dentro de ningún paralelepípedo. Del mismo modo,
estos pueden solaparse y ciertos elementos pueden pertenecer simultáneamente
a varias clases. En caso de darse esta circunstancia, puede ser resuelta aplicando
alguno de los otros métodos tal como el de máxima verosimilitud.
En general, la precisión de este método es baja, y el número de elementos sin
540 Sistemas de Información Geográfica
Mínima distancia
El método de mínima distancia se basa también en conceptos geométricos
dentro del espacio de atributos. En este caso se emplea únicamente la media de
cada clase, prescindiéndose de la desviación típica.
Para cada uno de los elementos a clasificar se calcula la distancia euclídea en el
espacio de atributos entre la media de cada clase y dicho elemento. Esta distancia
viene expresada por
q
dk = (xi −xik )2 (20.2.1)
A diferencia del método anterior, todos los elementos pueden ser clasificados,
ya que siempre existe uno más cercano. Esto constituye una de las potenciales
desventajas del método, ya que puede hacer asignaciones incorrectas en el caso
de que un elemento sea muy distinto a todas las clases de partida. Se asignará a
la clase más similar, lo cual no significa necesariamente que sea lo suficientemente
similar a ella como para considerarlo parte de la misma.
Por ejemplo, y repitiendo un ejemplo ya citado, si tenemos las clases «bosque»,
«cultivo» y «carretera», y en nuestro área de estudio existe una zona en barbecho,
esta será clasificada dentro de alguno de los grupos anteriores, que puede ser uno u
otro en función de los datos que empleemos para la clasificación. Con independencia
de cuál sea esa clase escogida, resulta claro que sera una asignación errónea, y que
o bien debería haberse incorporado esta clase dentro de las zonas de entrenamiento,
o bien toda esa zona de barbecho debería quedar sin clasificar.
Un método similar al de mínima distancia es el basado en distancia de Maha-
lanobis.
La distancia euclídea puede expresarse de forma matricial como
q
dk = (X −X k )T (X −X k ) (20.2.2)
Máxima verosimilitud
A diferencia de los anteriores, el método de máxima verosimilitud no evalúa un
parámetro geométrico dentro del espacio de atributos, sino que se basa en funda-
mentos estadísticos. Conociendo la media y desviación típica que caracteriza a una
clase, podemos suponer una función de densidad de probabilidad, y con los valores
542 Sistemas de Información Geográfica
Es importante recalcar que al emplear este método se asume que los datos
tienen una distribución normal, lo cual no ha de ser necesariamente cierto según
qué tipo de variables manejemos. Es importante tener en cuenta este hecho antes
de utilizar este clasificador sobre nuestros datos.
la clasificación por distancia mínima solo es necesario conocer los valores medios de
las clases, siendo este el único estadístico de cada clase con el que se va a trabajar.
Una vez que se ha realizado la asignación de clases en la primera iteración, se
estudian los puntos que están incluidos en cada clase y se calculan nuevamente los
valores de las medias por clase. Es decir, las clases resultantes del proceso anterior
son utilizadas en cierto modo como zonas de entrenamiento. Con estos nuevos valo-
res calculados de las medias, se vuelve a repetir la fase de asignación por distancia
mínima, y así sucesivamente hasta que se cumple un criterio de convergencia.
En cada iteración del proceso hay elementos (celdas en nuestro caso, puesto que
trabajamos con capas ráster) que cambian de clase. El número de dichos elementos
que varían su clase es empleado como criterio de convergencia, estableciendo un um-
bral inferior. Si en una iteración el número de elementos que varían es menor que el
umbral, se considera que el proceso ha convergido y se detiene. La varianza media de
las clases puede utilizarse también como medida de la modificación que se produce
entre el resultado de una iteración y el de la anterior. Si no se produce una disminu-
ción suficiente de la varianza, las iteraciones ya no mejoran la clasificación obtenida,
con lo cual puede asumirse que el proceso ha convergido a un resultado óptimo.
El operador especifica dicho umbral de convergencia junto al número de clases
deseadas, y habitualmente también un número máximo de iteraciones, con objeto
de detener el proceso en caso de que no se alcance la convergencia especificada.
Este algoritmo, así como el que veremos seguidamente, clasifican todos los
elementos en algún grupo, no existiendo la posibilidad de tener una capa resultante
en la que existan celdas sin clasificar. De hecho, todas las celdas son utilizadas
para la definición de las medias de clases sucesivas, por lo que puede decirse que
todas influyen sobre la clasificación de las restantes y al final del proceso estarán
asignadas siempre a alguna clase.
Como es fácil intuir, los valores iniciales de las medias de clase condicionan
el proceso de clasificación, influyendo sobre la rapidez con que este converge y
también sobre el resultado. Una solución habitual para establecer estos centros de
clase es hacerlo equiespaciadamente en el rango que los valores a clasificar cubren
dentro del espacio de atributos.
En la figura 20.5 puede verse gráficamente la forma de definir estas clases
iniciales. Sobre la diagonal que atraviesa el espacio de atributos se establecen
tantos puntos como clases quieran definirse. Estos serán los valores medios a los
que se calculen las distancias desde cada elemento en la primera iteración.
Como puede verse, los centros de las clases no se corresponden con los centros
de los grupos que existen en el conjunto de elementos, pero al cubrir el espacio
y repartirse a lo largo de este, garantizan que en las sucesivas iteraciones estos
centros puedan desplazarse al lugar correcto donde las clases que definan presenten
una mínima variabilidad.
En la figura 20.6 pueden verse algunas etapas de un proceso de clasificación
Más estadística espacial 545
ISODATA
El método ISODATA (Iterative Self–Organizing Data Analysis Technique)
comparte los mismos fundamentos que el anterior, pero le añade algunos elementos
adicionales que permiten al operador tener algo más de control sobre el proceso,
al tiempo que aportan una mayor flexibilidad a los resultados.
Por una parte, puede darse el caso en que algunas de las clases establecidas
no tengan suficientes elementos asignados a ellas, y no sea relevante mantenerlas.
Los elementos de estas clases pueden asignarse a la siguiente clase más cercana.
El método ISODATA analiza la capa resultante en busca de clases con pocos
elementos, y en caso de que no superen un umbral mínimo de número de estos,
los reparte entre las restantes clases. Mediante esta operación, el número de clases
totales disminuye en uno.
Otro caso similar se da cuando dos de las clases resultantes son muy simila-
res, existiendo poca distancia entre sus medias respectivas. En este caso, resulta
conveniente unir dichas clases. La definición de un umbral mínimo de distancia
entre clases permite al algoritmo considerar esta circunstancia.
Un caso opuesto a los anteriores se da cuando una clase tiene una amplitud
excesiva, de tal modo que la variabilidad en ella sea elevada. Puede establecerse
un umbral de amplitud en función de la desviación típica, que permita localizar
dichas clases, para posteriormente dividir estas en dos nuevas.
Con todo lo anterior, además de especificarse un número de clases a crear se
establece un número máximo y otro mínimo de clases, para de este modo acotar
el número de clases totales que resulta de los procesos de ajuste mencionados.
Incluyendo estos procesos junto a la estructura del algoritmo de distancia mínima
iterativa, se tiene el proceso global del método ISODATA.
Como conclusión de esta sección dedicada a la clasificación y los métodos
existentes, en la figura 20.7 se muestra un ejemplo de clasificación de usos de suelo
en un área de estudio, en base a imágenes de satélite y parámetros fisiográficos,
llevada a cabo por algunos de los métodos descritos anteriormente.
Clustering jerárquico
comunes. Estos bloques son los objetos, que en la fase inicial del método se estruc-
turan de forma jerárquica a partir de esa estructura y se clasifican posteriormente.
La creación de dichos objetos a partir de las capas implica un proceso de
segmentación de estas, y es ahí donde se incorpora el criterio espacial, ya que
se utilizan, además de estadísticos básicos, la forma, el tamaño o los distintos
descriptores de la textura de las imágenes.
Más información sobre métodos de clasificación basados en objetos dentro
de un ámbito SIG puede encontrarse por ejemplo en [347] o en [348], este último
con un tratamiento en detalle de los métodos de clasificación, así como de los de
segmentación necesarios para su empleo.
clase nos dan una idea de la fiabilidad con que podemos afirmar que una celda dada
pertenece a la clase a la que es asignada. En relación con este hecho se define el
concepto de incertidumbre de clasificación, el cual para una celda dada se expresa
mediante la siguiente fórmula:
max− Sn
IC = 1− (20.2.5)
1− n1
20.2.5. Validación
Del mismo modo que en el capítulo 13 veíamos la manera de verificar la bondad
de un método de interpolación a través del uso de puntos muestrales de comproba-
ción, a la hora de clasificar un conjunto de capas en clases podemos contrastar el
resultado obtenido si disponemos de zonas conocidas de antemano. Estas zonas se
definen del mismo modo que las zonas de entrenamiento, pero no se utilizan para
la clasificación, del mismo modo que no empleábamos los puntos de comprobación
en el proceso de interpolación. Comparando los valores de clase de estas zonas de
comprobación y los obtenidos mediante la clasificación podemos obtener índices
de concordancia que permitan juzgar la corrección de dicha clasificación.
Los métodos que se emplean para esta tarea no son exclusivos de la clasifi-
cación de imágenes, sino que se adaptan de forma genérica a cualquier proceso
que requiera la comparación de dos capas con información categórica. Al validar
Más estadística espacial 551
Clase A B C D
A 20135 15 20 0
B 22 18756 133 512
C 19 70 30452 345
D 3 457 272 7018
Nc
c= (20.2.6)
N
donde c es la concordancia global entre las dos capas, Nc el número de celdas que
presentan el mismo valor en ambas capas y N el número total de celdas existentes.
Autores como [349] recomiendan al menos valores de 0.85 para considerar que
la capa clasificada es operativa a efectos prácticos.
Este parámetro es sumamente sencillo y no refleja la naturaleza de la modi-
ficación que se produce entre las capas (o en el caso de utilizarse para validar
una clasificación, la naturaleza del error cometido) por lo que pueden encontrarse
alternativas más elaboradas.
Uno de los elementos habituales en estudio de las diferencias entre dos capas
categóricas es la denominada matriz de confusión o matriz de contingencias, que
ya mencionamos en el capítulo dedicado a la calidad de los datos espaciales. Se
trata de una matriz de dimensiones n×n, siendo n el número de clases diferentes
que existen en el conjunto de las capas. El elemento (i,j) de la matriz representa
el número de celdas que pertenecen a la clase i en la primera capa y sin embargo
están dentro de la clase j en la segunda.
La tabla 20.1 muestra una posible matriz de contingencias para el caso de dos
capas con un total de 4 clases.
Con los valores anteriores puede comprobarse entre qué clases se dan los mayores
cambios (los mayores errores de clasificación) o cuáles son las que presentan una
clasificación más robusta. Por ejemplo, las clases D y B parecen ser difíciles de
552 Sistemas de Información Geográfica
P0 −Pe
K= (20.2.9)
1−Pe
siendo P0 la proporción total de celdas que coinciden en ambas capas, es decir,
Pn
xii
P0 = Pn i=1
Pn (20.2.10)
i=1 j=1 xij
Por su expresión, el índice Kappa no presenta sesgo por una posible coincidencia
casual de clases, ya que tiene en cuenta la posibilidad de que exista concordancia
por azar.
A diferencia de la proporción de celdas correctamente clasificadas, cuyo rango
de valores se sitúa entre 0 y 1, el índice Kappa puede tomar valores desde -1 a 1. El
valor 1 indica una concordancia completa, mientras que el -1 define una correlación
de signo negativa. Valores alrededor de 0 indican que no existe correlación entre las
capas. Valores por encima de 0.75 indican en general una muy buena correlación
Se deja como ejercicio para el lector el cálculo del índice Kappa y la proporción
de celdas concordantes a partir de los valores de la matriz de ejemplo.
Más estadística espacial 553
h = (X T X)−1 X T Y (20.3.3)
Añadiendo una ponderación que dependa a su vez de la localización, tenemos
la siguiente expresión, que permite calcular los parámetros de la ecuación 20.3.2.
las variables de forma más elaborada, para poder crear modelos geográficos de
cualquier índole (como por ejemplo los modelos de idoneidad mencionados) y más
precisos que los que pueden obtenerse con los elementos que hemos visto hasta
el momento.
Dos son los apartados en los que ampliaremos nuestros conocimientos sobre
la elaboración de modelos como los anteriores:
La creación y preparación de las capas que reflejan los distintos criterios a
aplicar
La forma de combinar esos criterios en una expresión matemática.
Además, podremos aplicar los elementos que veremos en la siguiente sección, para
combinar las capas que gracias a la lógica difusa obtendremos.
Básicamente, la idea es que, si antes expresábamos esa naturaleza verdadera
o falsa de un elemento con total probabilidad (cuando era verdadero existía una
probabilidad del 100% de que la planta se diera a esa altitud, y cuando era falso
esa probabilidad era del 0%), ahora queremos que los valores de probabilidad no
sean un conjunto finito de dos elementos, sino que puedan situarse en todo el rango
de valores posibles.
La idea de esa variable «difusa» que queremos obtener es similar al de proba-
bilidad, y ambas se expresan como un valor entre 0 y 1, aunque conceptualmente
presenten diferencias. La probabilidad nos expresa en qué grado resulta factible
que se produzca un fenómeno (por ejemplo, qué probabilidad hay de que aparezca
una especie de planta en función de la altitud), mientras que la variable difusa nos
expresa una incertidumbre acerca de la pertenencia de un elemento a una clase (por
ejemplo, en qué medida un punto, en función de su distancia a una ciudad, puede
incluirse dentro de los puntos viables para establecer una fábrica). Este tipo de varia-
bles resultan, por tanto, de utilidad siempre que las clases con las que trabajamos no
tengan una frontera bien definida, sino que exista una transición continua entre ellas.
Este análisis resulta similar en cierta medida a lo que veíamos en el apartado de-
dicado a los clasificadores suaves, donde teníamos distintas capas que nos indicaban
la pertenencia de un elemento a cada una de las clases definidas. La clasificación
suave nos muestra los pasos intermedios de un proceso completo, el de clasificación,
en el cual a partir de las variables de partida, se obtiene una capa resultante.
Como indica [358], existen dos formas de plantear estos modelos: por un lado,
tratar las variables por separado y después agregarlas, o bien establecer un plantea-
miento holístico que trate todas estas variables como un conjunto. La clasificación
está en este último grupo. Las operaciones que vemos dentro de este apartado se
encuentran, sin embargo, dentro del primero.
Un elemento clave en la lógica difusa son las funciones que nos permiten calcular
los valores de la variables difusa (es decir, aplicar el criterio concreto sobre cada
variable). Puesto que el valor de esta nos indica la certidumbre con la que podemos
afirmar que un elemento es miembro de una clase dada, las anteriores funciones
se conocen como funciones de miembro. A partir de un valor dado asignan uno
nuevo entre 0 (se sabe con certeza que el elemento no pertenece a la clase) y 1 (se
sabe con certeza que sí pertenece a la clase).
Por ejemplo, para el supuesto de utilizar la distancia a una ciudad como variable
base, una posible función de miembro es la mostrada en la figura 20.10.
Para definir esta función de miembro, se han establecido, además de los valores
límite, un rango de valores óptimos (entre 6000 y 10000 metros de distancia), que
son los que delimitan las zonas idóneas para situar nuestra fábrica. En este rango,
se tiene un valor 1. Desde los valores óptimos, los valores descienden, haciéndolo
de tal modo que toman un valor igual a 0,5 en el punto en el que situábamos los
560 Sistemas de Información Geográfica
0
0 4000 6000 10000 15000
valores límite. Esto es lógico si pensamos que hay que definir un punto umbral a
partir del cual considerar si el elemento está dentro o fuera de la clase (para así
tener la clasificación dicotómica de verdadero y falso), y ese punto resulta natural
establecerlo en la mitad del intervalo.
Junto con la gráfica de la función de miembro anterior, se muestra la forma
que tendría una función de miembro4 que se comportase igual que si operáramos
con los elementos del álgebra booleana, restringiendo los valores posibles a dos:
verdadero y falso. Esta función presenta un salto brusco del 0 al 1, de tal modo
que no es posible asignar ninguno de los valores intermedios. Para cualquier valor
dado, el nuevo valor que se obtiene al aplicar esta función es, o bien 0, o bien 1.
El salto de la función se produce exactamente en los valores límite, justamente
donde la verdadera función de miembro toma el valor 0,5.
La diferencia entre los resultados que se obtienen al aplicar una función de
miembro como la anterior y aplicando una mera clasificación en dos clases de
distancia pueden apreciarse en las capas de la figura 20.11. Junto con una capa
de distancia a un punto dado, se muestran las resultantes de, en base a dicha capa,
aplicar un criterio en forma de restricción con dos clases posible (zonas dentro
del intervalo óptimo vs. zonas fuera del intervalo) o bien creando una variable que
refleje la certidumbre de pertenencia a cada una de las clases anteriores.
La función de miembro puede ser cualquier función, y no necesariamente similar
a la que se muestra en la figura 20.10. Basta con que cumpla las siguiente condiciones:
Estar acotada entre 0 y 1
Asignar valor 1 a los elementos que indudablemente pertenecen al conjunto
o clase
4
Realmente no es una función de miembro, ya que no cumple las características de una de
ellas, pero la denominaremos así para facilitar la comprensión de esta parte.
Más estadística espacial 561
Presentar un descenso «suave» desde los elementos con valor 1 hasta los
restantes.
Es habitual, no obstante, encontrarnos con situaciones como las anteriores,
en las que tengamos dos rangos, uno para el óptimo dentro del cual tendremos
valor 1 (sea este rango acotado por los valores b y c, b < c), y otro más amplio
que abarca todos los valores distintos de 0 (entre los valores a y d, a < d). En esta
situación, lo único necesario es definir las transiciones desde el óptimo hasta los
límites exteriores, es decir, los descensos suaves anteriormente citados.
En el ejemplo de la figura esta transición es lineal, y la función de miembro
se puede definir de la siguiente manera:
0 si x < a
x−a
si a ≤ x ≤ b
b−a
f (x) = 1 si b < x < c (20.4.1)
d−x
si c ≤ x ≤ d
d−c
0 si x > d
Pueden elegirse cualesquiera valores para los parámetros a,b,c y d, obtenién-
dose toda una familia de curvas distintas. Por ejemplo, el intervalo óptimo puede
reducirse a un único punto (b = c), en cuyo caso tendríamos una función triangular.
Otra solución habitual es emplear una función sigmoidal para las transiciones,
quedando la definición global de la función de miembro como sigue:
0 si x < a
1 x−a
2
1+cos π b−a si a ≤ x ≤ b
f (x) =
1 si b < x < c (20.4.2)
1 d−x
2 1+cos π d−c si c ≤ x ≤ d
0 si x > d
562 Sistemas de Información Geográfica
Regla de Dempster
La regla de Dempster esta basada en la denominada Teoría de la Evidencia,
una extensión de la teoría bayesiana de la probabilidad [360].
El elemento básico para agregar las distintas evidencias dentro de esta teoría es
la regla de Dempster. La característica principal de esta regla es que, al contrario
que el producto de las probabilidades, no disminuye a medida que se agregan más
y más factores (en el producto, por ser la probabilidad siempre menor que 1, sí
sucede así). En particular, si se agregan dos valores mayores que 0,5 el resultado es
mayor que ambos. Si se agregan dos valores menores que 0,5 el resultado es menor
que ambos. Si uno es mayor y otro menor, el resultado es intermedio entre ambos.
La expresión de la regla de Dempster es la siguiente:
cuando(X ∩Y ) = Z
P
m1 (X)m2 (Y )
m(Z) = (20.4.4)
m1 (X)m2 (Y ) cuando(X ∩Y ) = ∅
P
1−
Las probabilidades se denotan con la letra m (de masa) y se conocen como
Asignación de Probabilidad Básica.
Veamos un ejemplo concreto. Supongamos que en base a la altitud sabemos
que existe una probabilidad igual a 0,6 de que aparezca una especie en una zona
dada, y que en función del suelo dicha probabilidad es de 0,8. Se tiene así que
m1 (X) = 0,6 (posibilidad de que aparezca según la altitud)
m1 (Y ) = 0,4 (posibilidad de que no aparezca según la altitud)
m2 (X) = 0,8 (posibilidad de que aparezca según las características del suelo)
m2 (Y ) = 0,2 (posibilidad de que no aparezca según las características del
suelo)
Aplicando la ecuación 20.4.4, se tiene
m1 (X)m2 (X)
m(Z) =
1−(m1 (X)m2 (Y )+m2 (X)m1 (Y ))
0,48
= = 0,92 (20.4.5)
1−(0,12+0,36)
La Teoría de la Evidencia es mucho más compleja que lo mostrado aquí, y ad-
mite casos mucho más elaborados que el presentado. Simplemente se ha mostrado
un ejemplo para comprender las propiedades de la regla de Dempster, pero el lector
interesado en profundizar en el tema puede encontrar en [360, 361] exposiciones
más detalladas al respecto. Más ejemplos de la regla de Dempster y de numerosas
variantes de la misma pueden encontrarse en [362].
Jerarquías Analíticas
Una suma ponderada de los distintos factores es uno de los métodos más habi-
tuales de combinar estos. Si los factores son solo dos, o incluso tres, no resulta difícil
564 Sistemas de Información Geográfica
Valor Descripción
1 Misma importancia
3 Predominancia moderada de un factor
sobre otro
5 Predominancia fuerte
7 Predominancia muy fuerte
9 Predominancia extrema
2, 4, 6, 8 valores intermedios
Valores recíprocos Valores para comparación inversa
asignar los pesos a cada uno de ellos conociendo la importancia relativa que tienen.
Sin embargo, cuando son más numerosos (lo cual sucede muy habitualmente), asig-
nar pesos de forma consistente no resulta sencillo, ya que las relaciones uno a uno en-
tre los distintos factores son demasiadas como para poder tener una visión global de
ellas. Es necesario para ello recurrir a alguna metodología con cierta sistematicidad.
La más popular de estas metodologías es la de las denominadas Jerarquías
Analíticas 5 [363]. En esta metodología, no han de asignarse pesos directamente
a todos los factores, sino tan solo hacerlo para cada una de las posibles combi-
naciones entre dos de dichos factores. Puesto que se reduce la ponderación de
todos los factores simultáneamente a una serie de sencillas ponderaciones entre
dos elementos, resulta mucho más sencillo establecer la importancia relativa de
cada factor, a la par que mucho más preciso.
Los pesos de las distintas parejas de factores se colocan en una matriz de
dimensiones n × n, siendo n el número de factores que se quieren ponderar. El
valor en la posición (i,j) representa la ponderación entre el factor i y el factor j,
esto es, la importancia relativa de este primero frente al segundo. En esta matriz
(sea M ), se cumple siempre que Mij = M1ji , y Mii = 1.
Existen estudios psicológicos que muestran que no se puede comparar simultá-
neamente más de 7±2 elementos, y en base a este hecho los autores de esta metodo-
logía recomiendan utilizar valores entre 1 y 9, según lo mostrado en el cuadro 20.4.2.
Una vez creada la matriz de comparaciones, el autovector principal de la misma
contiene los distintos pesos a asignar a cada uno de los factores.
Veamos un ejemplo. Supongamos tres capas con tres factores, sean a, b y c, y la
siguiente matriz de comparaciones entre pares de ellos, que describe la importancia
de cada uno de los mismos frente a los restantes.
5
En inglés, Analytical Hierarchy Process (AHP)
Más estadística espacial 565
a b c
a 1 4 5
b 1/4 1 1/2
c 1/5 2 1
Factores y restricciones
A la hora de combinar una serie de capas, el papel que estas juegan en el modelo
puede ser bien distinto en función de la variable que contengan. Por ejemplo,
existiendo una limitación legal a la construcción cerca de un cauce, trabajar con una
capa de distancia al cauce con las herramientas que acabamos de ver para preparar y
combinar capas no aporta ninguna ventaja adicional. La distancia no es en este caso
un factor cuya influencia pueda graduarse, sino una restricción que simplemente
nos servirá para saber si es posible o no construir en un emplazamiento dado.
En el caso de las restricciones, las operaciones lógicas con las que trabajába-
mos son suficientes para excluir aquellas zonas en las cuales no va a ser viable
desarrollar una actividad, con independencia del resto de variables. En el ejemplo
de la distancia al cauce para establecer una edificación, no importa que el resto
de factores sean apropiados y el lugar sea idóneo para edificar. Si la distancia al
cauce es menor que la establecida por el Dominio Público Hidráulico, no resulta
viable como emplazamiento.
Frente a aquellos parámetros que representan restricciones, existen otros que
afectan a la actividad que evaluamos en el modelo, pero su influencia puede tratarse
como una variable continua, tal y como hemos visto. La combinación de estos
mediante operaciones lógicas no es suficiente para reflejar este hecho, y deben por
ello aplicarse operaciones aritméticas o algunas de las metodologías alternativas
que hemos visto.
Esta distinción entre factores y restricciones es importante para una correcta
integración de todas las capas con las que vamos a trabajar, dándole a cada una
el papel que le corresponde en el modelo. Se pueden tratar las capas de factores
por separado y después aplicarles las restricciones, conjugando así los dos tipos
de parámetros que se consideran en el modelo.
Las operaciones lógicas pueden evaluarse como operaciones aritméticas, apli-
cando el operador multiplicación y codificando con valores 0 y 1 los valores lógicos
verdadero y falso. El ejemplo de la figura 20.12 muestra un supuesto de combinación
de dos factores y una restricción en un modelo sencillo.
566 Sistemas de Información Geográfica
restante es la que aparece solo en alguna de ellas. Esto puede utilizarse, por ejemplo,
para estudiar los cambios producidos a lo largo del tiempo.
Si tomamos como n variables un conjunto de n medidas de una única variable
en n instantes, el análisis de componentes nos permite separar la información
común a todos ellos de aquella que solo corresponde a algunos de los mismos. De
este modo, podemos analizar una u otra parte de la información según sean los
resultados que busquemos.
En [364] y [365] pueden encontrarse dos ejemplos del uso de transformaciones
de componentes principales en la detección de cambios de uso de suelo a partir
de series de imágenes.
Para calcular la matriz del cambio de base que define la transformación, se
puede partir de la matriz de covarianzas C (ver ecuación 20.2.4) o bien de la matriz
de correlación ρ, en la cual los elementos son los coeficientes de correlación de
Pearson. Es decir,
ρ11 ρ12 ··· ρ1n
ρ21 ρ22 ··· ρ2n
ρ= .. .. .. .. (20.5.1)
. . . .
ρn1 ρn2 ··· ρnn
σij
ρij = (20.5.2)
σii σjj
6
Si necesitas ayuda con estos conceptos matemáticos, la red está llena de textos libres sobre
álgebra lineal. En [366] puedes encontrar una excelente referencia en español.
7
Más accesible, una muy buena referencia on–line es [367]
20.6. Resumen
En este capítulo hemos visto algunas formulaciones estadísticas más complejas
y su aplicación particular sobre datos espaciales.
La clasificación es uno de los procesos de mayor importancia y, pese a estudiarse
de forma habitual aplicado sobre imágenes, es de gran utilidad sobre cualquier
tipo de datos. Tomando una serie de n capas ráster, la clasificación asocia cada
celda a una clase dada, en función de los valores de dicha celda en esas capas.
Si en el proceso de clasificación se aporta algún tipo de información adicional so-
bre las características de las distintas clases, el proceso se conoce como clasificación
supervisada. Si, por el contrario, se generan estas clases sin información adicional
y simplemente buscando la mayor homogeneidad en las mismas, el proceso se
denomina clasificación no supervisada.
Otras formulaciones vistas son las relativas a la combinación de capas. A la
hora de combinar varias de ellas, podemos realizar operaciones aritméticas sencillas
(mediante operaciones locales del álgebra de mapas) o aplicar otra serie de formu-
laciones más elaboradas. Metodologías como las jerarquías analíticas permiten
establecer ponderaciones más correctas cuando el número de capas a combinar
es elevado y resulta difícil asignar pesos relativos a las mismas. El significado de
una capa en una operación de combinación puede ser distinto en función de si
representa un factor más a considerar en la ecuación, o una restricción en el modelo.
Por último, hemos visto cómo el método de análisis de componentes princi-
pales permite reducir el número de variables con los que se trabaja en un modelo,
reduciendo un conjunto de n capas a uno menor, tomando aquellas que explican
la mayor variabilidad. Esto es de utilidad para establecer modelos de combinación
entre capas, así como para reducir el volumen de datos en imágenes.
Parte IV
La tecnología
Capítulo 21
Las aplicaciones informáticas que forman parte del ámbito SIG son muy diversas, y su
evolución es constante. En este capítulo presentaremos los tipos principales de aplicaciones
y la forma en que estas van desarrollándose dentro de dicho ámbito SIG, y el papel que
juegan en este.
Todos estos tipos de aplicaciones no son elementos aislados, sino que se relacionan entre
sí y dependen en muchos casos los unos de los otros para cobrar sentido como herramientas
útiles. El objetivo del capítulo es presentar una visión global de esa realidad, mostrando
los distintos elementos tecnológicos que pueden encontrarse en un entorno SIG actual.
21.1. Introducción
Las aplicaciones SIG son el elemento de trabajo básico dentro de todos aquellos
que componen el concepto global de un SIG. Una aplicación SIG materializa todas
las ideas vistas hasta el momento dentro de este libro, y es la herramienta funda-
mental para el trabajo con datos espaciales, lo cual constituye la tarea primordial
de un SIG.
Dentro de la lógica evolución de toda tecnología informática, los SIG se han
desarrollado de forma muy rápida y variada, adaptándose a una realidad, la de
la propia información geográfica, también en constante evolución en todas sus
vertientes. Por ello, la idea de aplicación SIG que podía encontrarse en un libro
equivalente a este hace 10 o 20 años es bien distinta de la que hoy tenemos. De
hecho, la concepción única de aquel entonces ya no es tal, y actualmente son
muchas las formas en las que las aplicaciones SIG pueden presentarse.
Junto con la concepción «clásica» del SIG, todavía presente, existen una serie
de otras tecnologías que han ido surgiendo paulatinamente, y que incorporan ideas
y conceptos como los que ya conocemos de capítulos anteriores. En esta parte del
libro se mostrarán todas ellas en detalle, definiendo así el panorama global de las
aplicaciones SIG y los usos y funciones principales de cada una de dichas tecnologías.
Para comprender el papel que juegan las distintas formas de aplicaciones
SIG que encontramos hoy en día y que trataremos en los sucesivos capítulos, es
necesario analizar la forma en que han ido conformándose dentro del entorno SIG,
lo cual haremos en este capítulo.
574 Sistemas de Información Geográfica
escritorio, más cercanas al concepto tradicional del SIG, han ido incorporando
estas capacidades para ofrecer una funcionalidad similar a la de esas aplicaciones
Web. En la actualidad, la integración de estos elementos va más allá, adaptando
todas las restantes funcionalidades de esas aplicaciones de escritorio, muchas de las
cuales no aparecen (todavía) en las aplicaciones Web, al trabajo con datos remotos.
De este modo, el trabajo actual con datos remotos se va integrando en los SIG
como un elemento más, del mismo modo que ha sucedido con los distintos modelos
de datos hasta alcanzar la situación actual en la que se conciben como realidades
distintas pero fundamentales y complementarias dentro de un SIG.
Veremos todo lo relativo al uso de datos remotos dentro del capítulo 23, también
dentro de esta parte del libro.
últimas tengan capacidades de cliente), acceden a los servidores para obtener datos
y servicios. Los servidores, a su vez, toman datos de los repositorios de datos, al
igual que pueden hacer las herramientas de escritorio para el trabajo con datos
locales, algo que los clientes Web no están pensados para hacer.
Repositorios
Clientes Web
de datos
Herramientas
Servidores
de escritorio
21.6. Resumen
A partir de la concepción inicial de los SIG como aplicaciones bien definidas
en las cuales se reunían las funcionalidades principales de estos, se ha desarrollado
en la actualidad un amplio panorama de aplicaciones bien diferenciadas, las cuales
podemos dividir en tres grupos principales: herramientas de escritorio, repositorios
de datos y clientes y servidores.
Estos tipos de aplicaciones se encuentran interrelacionados y se apoyan unos
en otros para ofrecer todo el conjunto de capacidades actuales de los SIG.
Para llegar hasta este punto, los SIG han tomado elementos de otras apli-
caciones, congregándolos en un único software. Al mismo tiempo, se han ido
especializando en distintos ámbitos, dividiendo así el total de áreas de posible
trabajo de este tipo de tecnologías.
En la actualidad los SIG forman una base genérica sobre la cual se construyen
herramientas de análisis geográfico adaptadas a distintos fines.
Capítulo 22
Herramientas de escritorio
Las herramientas de escritorio son la forma más «típica» en la que se presentan los
Sistemas de Información Geográfica, y ofrecen elementos para realizar las tareas básicas
de un proyecto SIG. En este capítulo veremos sus características principales y los distintos
tipos de ellas que pueden encontrarse, detallando la utilidad de cada uno.
22.1. Introducción
El concepto clásico de un SIG es el de una aplicación completa en la cual se
implementan herramientas para llevar a cabo las tareas básicas del trabajo con
datos geográficos: creación o edición, manejo y análisis. Con esta filosofía fueron
desarrollados los primeros programas SIG, especialmente para el tratamiento
y análisis de datos geográficos y, posteriormente, para dotar a estos de mayor
versatilidad, incorporando otras funciones adicionales que facilitaran el trabajo
con esos mismos datos. Se tienen así las herramientas de escritorio, que son aquellas
que más se asemejan a la concepción original de los SIG.
A pesar de que existen, como vimos en el capítulo anterior, otras clases de
aplicaciones SIG, los SIG de escritorio siguen manteniendo su posición como apli-
caciones fundamentales, y hablar genéricamente de un SIG implica por lo general
hacerlo de una aplicación de escritorio antes que de otros tipos de aplicaciones. Por
otra parte, las herramientas de escritorio son soluciones en general completas que
cubren la totalidad de necesidades que se presentan en el desarrollo de proyectos
SIG, y por ello constituyen las herramientas primordiales para llevar estos a cabo.
22.2.2. Visualización
La visualización es una función fundamental dentro de los SIG y del trabajo
con cartografía en general. En este libro, por ejemplo, existe una parte completa
dedicada a esta materia, pues su conocimiento resulta fundamental para poder
aprovechar plenamente la información contenida en el dato geográfico.
Aunque existen SIG que no incorporan capacidades de visualización o estas
no son muy avanzadas, la gran mayoría de las herramientas de escritorio incluyen
un gran número de elementos para representar los datos geográficos con los que
1
Básicamente, estos servicios van a permitir acceder a datos geográficos que no están en nuestro
ordenador, del mismo modo que accedemos a textos o imágenes a través de un navegador Web
Herramientas de escritorio 581
En el caso de capas vectoriales o una capa ráster tal como un MDE, no existe
ningún tipo de información acerca de la representación acompañando al dato
espacial en sí. Los datos necesitan de un esquema de asignación que los convierta en
elementos visuales (colores, texturas, etc.), pero este esquema es ajeno al dato en sí.
La labor del SIG relativa a la visualización consiste en «interpretar» los datos
y convertirlos en representaciones, y para ello se basa en esquemas definidos por
el usuario. Estos esquemas pueden ser almacenados de forma que en sucesivos
usos de una capa de datos, esta se represente de una misma forma. No obstante,
abrir la capa con una aplicación SIG distinta implicará en general perder las
características definidas para su representación ya que, si bien los formatos de
datos son relativamente interoperables, no así los formatos en que se almacenan
los criterios de representación de esos datos.
Estándares para el almacenamiento de estilos como SLD(Styled Layer Descrip-
tor), que veremos en detalle en el apartado 32.5.2, tienen como objeto solventar
este problema.
22.2.3. Análisis
Si hubiéramos de ordenar cronológicamente las distintas funcionalidades que
un SIG de escritorio presenta, probablemente el análisis fuera una de las primeras.
Por encima de otras capacidades, los ordenadores han sido y son principalmente
herramientas de cálculo capaces de realizar operaciones y computar resultados, y
este ha sido uno de los usos fundamentales relativos al manejo de datos geográficos.
Otros usos, tales como la visualización, pese a ser prácticamente imprescindibles
hoy en día, estaban muy limitados en los primeros SIG. No ocurría así en el ámbito
del análisis ya que, aunque con capacidades como es lógico menores que las actuales,
los ordenadores ofrecían una potencia de calculo que los convertía en herramientas
de análisis tan interesantes como en la actualidad.
La tendencia actual en los SIG es considerar las capacidades de análisis como
herramientas modulares que se ejecutan sobre una plataforma base, la cual com-
prende las capacidades de visualización y entrada y salida de datos. Todas estas
capacidades de análisis son independientes entre sí, aunque pueden coordinarse
y emplearse en conjunto para alcanzar un resultado concreto. De otro modo, cada
una de las formulaciones o algoritmos que vimos en capítulos anteriores aparece
dentro del SIG como una herramienta individual que opera sobre una serie de
capas y genera un resultado dado, tomando en muchas ocasiones esas capas de
entre aquellas que se están representando en el SIG, e incorporando asimismo a
dicha representación las nuevas capas generadas.
Las herramientas de análisis pueden aparecer igualmente como programas inde-
pendientes, y el SIG de escritorio ser una herramienta aglutinadora que centraliza es-
tas, facilitando su uso y la gestión de los datos implicados en los procesos de análisis.
Cuando las herramientas de análisis utilizan directamente la base del SIG
Herramientas de escritorio 585
22.2.4. Edición
Los datos geográficos con los que trabajamos en un SIG no son una realidad
estática. La información contenida en una capa es susceptible de ser modificada o
corregida, y las funciones que permiten estas tareas son importantes para dotar al
SIG de versatilidad. Sin ellas, los datos espaciales pierden gran parte de su utilidad
dentro de un SIG, ya que se limitan las posibilidades de trabajo sobre estos. Las
funcionalidades de edición son, por tanto, básicas en una herramienta de escritorio.
Las operaciones de edición pueden emplearse, por ejemplo, para la actualización
de cartografía. Como vimos en el capítulo 6, una de las ventajas de los datos digita-
les frente a los analógicos es la mayor facilidad de actualización. Así, si una entidad
en una capa vectorial (por ejemplo, una parcela catastral) modifica su geometría,
no es necesario rehacer todo un mapa, sino simplemente editar ese elemento. A
lo largo del desarrollo de un proyecto SIG, es muy probable que sea necesario
588 Sistemas de Información Geográfica
Figura 22.4: División automática de un polígono en dos nuevas entidades a partir de una
línea. Funcionalidades de este tipo aparecen en los SIG para facilitar las tareas de edición.
editar de un modo u otro algún dato espacial, bien sea para corregirlo, ampliarlo,
mejorarlo o sencillamente adaptarlo a las necesidades del propio proyecto.
Además de la modificación de una capa ya existente, las herramientas de
edición de un SIG de escritorio se emplean igualmente para la creación de capas
nuevas, que pueden crearse a partir de la digitalización de imágenes como vimos
en el capítulo 6, o bien en base a cualquier otra capa de la que dispongamos.
Aunque las tareas de edición más habituales son las relacionadas con la edición
de geometrías, no es esta la única edición que puede realizarse dentro de un SIG.
Podemos distinguir las siguientes formas de edición:
Edición de geometrías de una capa vectorial
Edición de atributos de una capa vectorial
Edición de valores de una capa ráster
Las herramientas destinadas a la edición de entidades geométricas heredan
sus características de los programas de diseño asistido por ordenador (CAD),
cuya funcionalidad principal es precisamente la edición de elementos gráficos.
Estas incluyen la adición o eliminación de nuevas geometrías, la modificación de
ellas editando sus puntos (recordemos que toda entidad vectorial se reduce a un
conjunto de puntos en última instancia), así como otras operaciones geométricas
básicas. En la sección 6.5.1 vimos algunas de ellas a la hora de tratar la calidad
de la digitalización en pantalla.
Otras funciones de edición que encontramos son las que permiten simplificar
algunas tareas, tales como la división de un polígono. La figura 22.4 muestra cómo
un polígono puede dividirse en dos simplemente trazando una línea divisoria. Otras
funcionalidades similares incluyen la eliminación automática de polígonos espúreos
(véase 18.3.5), o el ajuste automático entre entidades.
En general, el número de funcionalidades es sensiblemente menor que en el caso
de los programas CAD, ya que gran parte de ellas no tiene aplicación directa en el
caso de trabajar con datos geográficos. No obstante, también aparecen herramien-
tas adicionales, como sucede en el caso de que se registre información topológica, lo
cual ha de considerarse por igual en el proceso de edición. Así, herramientas como
la mostrada en la figura 22.4 han de tener en cuenta la existencia de una estructura
topológica y un modelo de representación particular en el SIG, y no operarán igual
Herramientas de escritorio 589
en todas las aplicaciones, ya que, como sabemos, no todas presentan las mismas
capacidades en este terreno.
Junto con las propias geometrías que pueden editarse según lo anterior, toda
capa vectorial tiene asociado un conjunto de atributos, y estos deben poder editarse
también desde el SIG. De hecho, la adición de una nueva geometría a una capa
vectorial no está completa hasta que no se añaden igualmente sus atributos.
La edición de toda la información alfanumérica relacionada con las distintas
entidades se realiza en un SIG a través de elementos tomados del ámbito de las bases
de datos, siendo esto en general válido tanto en lo referente a las interfaces como en
el propio acceso a datos. Las operaciones de edición de atributos abarcan tanto la
modificación de valores sencillos como la de la propia estructura del conjunto de atri-
butos (adición o eliminación de columnas —campos— en la tabla correspondiente).
Por supuesto, la edición de atributos y de geometrías esta íntimamente relacionada.
Por último, la edición de capas ráster es mucho menos frecuente, y una gran
mayoría de SIG no permiten la modificación directa de los valores de las celdas.
Las operaciones del álgebra de mapas permiten modificar los valores de una capa
y obtener nuevas capas con esos valores modificados, pero editar directamente un
valor de celda del mismo modo que se editan el valor de un atributo o la posición
de un punto de una capa vectorial no es una funcionalidad tan habitual.
Este tipo de capacidades, no obstante, pueden ser de gran utilidad, especial-
mente en SIG orientados al manejo principal de capas ráster, donde sustituyen
en cierta medida a las funcionalidades de edición vectorial equivalentes.
Llegado a este punto del libro, y tras todo lo que hemos visto, queda claro, no
obstante, que un SIG es ante todo una herramienta de gestión y análisis de datos
espaciales, y que las capacidades enfocadas a la producción cartográfica deben
verse como una ayuda —de vital importancia, eso sí— para la presentación final
de todo el trabajo que se lleva a cabo en él.
Fundamentalmente, estas capacidades permiten la composición de documentos
cartográficos de acuerdo con un diseño dado, y la impresión directa de estas en
algún periférico tal como una impresora común o un plotter de gran formato. En
la elaboración de dicho diseño, pueden emplearse todos los elementos que habitual-
mente podemos encontrar en un mapa: el propio mapa en sí (la representación de
la información geográfica), leyenda, título, escala, etc. Con estos elementos, se crea
una versión autocontenida de la información geográfica, que puede ya emplearse
de modo independiente del SIG.
Las funciones de diseño que se implementan por regla general en un SIG son
similares a las que pueden encontrarse en un software de maquetación genérico,
permitiendo la composición gráfica del documento general y el ajuste de los distintos
elementos que lo forman. Funciones más avanzadas no están presentes de modo
habitual, principalmente debido a las características muy concretas y bien definidas
del tipo de documento con el que se trabaja, lo cual hace posible esta simplificación.
Aunque, como se ha dicho, muchos usuarios, bien por desconocimiento o falta
de formación en la herramienta, consideran que la capacidad principal de un SIG
es «hacer mapas», lo cierto es que, incluso en aquellas aplicaciones más completas
y avanzadas, la potencia en la producción cartográfica es muchas veces insuficiente
para producir cartografía profesional. Pueden obtenerse resultados de gran calidad
y sin duda de suma utilidad, pero lo más habitual es no encontrar en un SIG
las capacidades que se necesitan, no ya únicamente desde el punto de vista del
cartógrafo, sino desde la perspectiva del diseño.
La creación de un mapa no es solo una tarea técnica, sino asimismo una labor
artística, existiendo unas necesidades en función del enfoque que prime. Como
herramienta de trabajo, un SIG es un elemento técnico, y las consideraciones
artísticas, aunque pueden en cierta forma aplicarse con las herramientas que este
implementa, resultan más sencillas de tratar si se dispone de aplicaciones más
específicas en ese sentido.
Por ello, lograr un mapa de apariencia realmente profesional requiere unas
herramientas de diseño avanzado, a la par que un conjunto de utilidades suficiente
como para poder aplicar a la creación del mapa todos los conceptos sobre repre-
sentación que veremos en la parte V, no encontrándose estas en ocasiones en su
totalidad dentro de un SIG. La utilización del SIG como aplicación base y el uso
posterior de programas de diseño es la solución adecuada para la obtención de
cartografía profesional, aunque lógicamente requiere unos mayores conocimientos
y una especialización más allá de la propia práctica cartográfica.
No obstante, para el usuario técnico de SIG (el usuario al que está dirigido
Herramientas de escritorio 591
espaciales y el diseño del documento cartográfico que los contiene, del mismo
modo que ya vimos existe entre datos y parámetros de representación a la hora
de visualizar los primeros.
El usuario puede también añadir sus propias capas y usar estos visualizadores de
la misma manera que emplea las capacidades de visualización de un SIG de escritorio
más rico en funcionalidades, pero parte del interés de la aplicación no está solo en sus
capacidades, sino en los datos que tiene vinculados y que permiten emplear estas.
En otros casos, un organismo o empresa puede generar un conjunto de capas
bien a partir de algún tipo de análisis o de cualquier otra metodología, y opta por
distribuir estas acompañadas de un visor que permita un primer acceso a los datos.
Todas esas capas podrán ser empleadas dentro de un SIG que soporte los formatos
de archivo en el que estas se hayan almacenado, pero aquellos usuarios que no
dispongan de un SIG podrán igualmente efectuar consultas básicas y explorar la
cartografía haciendo uso del visor incorporado.
En líneas generales podemos enumerar las siguientes características de los
visores:
594 Sistemas de Información Geográfica
22.4. Resumen
Las herramientas de escritorio son la forma más clásica de los SIG. Entendemos
como tales a aquellas herramientas ciertamente complejas que permiten llevar a
cabo las tareas básicas de un SIG en sentido tradicional, como son el manejo de
datos espaciales y el trabajo con los mismos.
Podemos distinguir cuatro funcionalidades básicas que aparecen representadas
en mayor o menor medida en un SIG de escritorio: visualización, edición, análisis
y generación de cartografía.
En función del grado de desarrollo e implementación en que las anteriores
funcionalidades se encuentren en un SIG de escritorio, distinguimos distintas
formas de estas herramientas. La división más genérica es aquella que distingue
las herramientas pensadas para un trabajo completo en todas las distintas fases
de un proyecto SIG de aquellas orientadas a la representación y exploración visual
de los datos geográficos. Estas últimas representan un enfoque más reciente, y en
la actualidad están contribuyendo de manera muy notable a la expansión de las
tecnologías SIG fuera del ámbito más especializado.
Capítulo 23
23.1. Introducción
Del mismo modo que podemos acceder a otros tipos de información a través
de Internet o de una red local, también podemos emplear esta para acceder a
información geográfica y trabajar con ella dentro de un SIG. En el contexto actual,
no puede dependerse en un SIG únicamente de datos locales en forma de archivos
en el mismo ordenador en el que se trabaja, sino que es necesario poder operar con
datos remotos. Las redes son la vía para la difusión de todo tipo de información,
entre ella la información geográfica.
Los datos espaciales pueden ofrecerse a través de una red de la misma manera
que se ofrecen otro tipo de datos como imágenes o texto en una pagina Web. Para
que en este proceso se maximicen las posibilidades que esos datos ofrecen, es nece-
sario disponer de tecnologías adaptadas basadas en las tecnologías fundamentales
de las redes, pero particularizadas al tipo de datos concreto que se maneja y los
posibles usos que pueden darse.
Estas tecnologías son variadas y, como cabe esperar, han evolucionado paralela-
mente a otras basadas en la Web, añadiendo progresivamente elementos tales como
una mayor interactividad o flexibilidad Web. Las páginas estáticas que formaban
Internet hace unos años, muy limitadas en cuanto a sus posibilidades, han dado
paso a lo que hoy se conoce como Web 2.0, donde encontramos blogs, wikis y otros
tipos de páginas Web con capacidades mucho mayores y que permiten al usuario
un trabajo muy distinto.
598 Sistemas de Información Geográfica
Una evolución similar han seguido las aplicaciones de la Web relacionadas con
la información geográfica, habiendo ganado día tras día en riqueza hasta el estado
actual donde pueden llegar a ofrecer casi tantas funcionalidades como un SIG de es-
critorio. Los mapas estáticos que constituían los primeros elementos con componen-
te geográfica en la Web han evolucionado hasta verdaderas aplicaciones que pueden
convertir un navegador Web en una plataforma SIG completa. En su avance, las
tecnologías Web van tomando elementos que ya conocemos de los SIG de escritorio,
con objeto de trasladar toda su potencia al entorno de Internet, y uniéndola así con
las capacidades que la red tiene como espacio común de actividad y conocimiento.
Aunque el objetivo final sea trasladar los SIG de escritorio a la red, las tecno-
logías necesarias distan bastante de las tecnologías SIG en sentido clásico, de la
misma forma que, aun trabajando con un tipo de datos similar, un procesador de
textos se diferencia mucho de un navegador Web.
Fundamentalmente, estas tecnologías Web han de responder a dos necesidades
principales: servir un elemento a través de la red y tomar este para emplearlo. Es de-
cir, tomar y recibir el elemento que es objeto de interés. Distinguimos así los concep-
tos de servidor y cliente, que debemos ver con algo más detalle antes de continuar.
Elqusuarioqpideqlaqpagina
http://www.maquina1.net/page1
4 2
ElqclienteqWebqrecibeqlaq Internet Laqpeticiónqdeqlaqpaginaq
página seqmandaqalqservidor
3
Laqpáginaqseqmandaqq
alqusuario
Figura 23.1: Esquema del proceso de consulta de una página Web desde un navegador.
siguiendo el esquema que hemos visto en el apartado anterior. Una vez que los
datos están en el SIG (es decir, el servidor ha devuelto a este los datos que había
pedido), podemos operar con ellos usando las herramientas que ya conocemos.
En un entorno Web sensu stricto tal como el de un navegador, las posibilidades
son, no obstante, distintas, pues se trata de combinar los elementos cartográficos con
los restantes elementos que forman parte habitual de una página Web. Las tecnolo-
gías Web de corte SIG se han desarrollado principalmente para su trabajo dentro de
un navegador, es decir, como una alternativa a los SIG de escritorio o para alcanzar
áreas nuevas en el trabajo con información geográfica digital. Su incorporación en
los SIG de escritorio aumenta las capacidades de estos, pero la principal potencia
de estas tecnologías surge cuando se unen a otras funcionalidades de tipo Web.
En resumen, el objetivo básico que pretenden cumplir las tecnologías que vamos
a ver, especialmente las del lado del cliente, es llevar las funcionalidades de un SIG
a la Web, para así compartir la potencia de ambos componentes. Las ventajas de
llevar el SIG a la Web en lugar de incorporar los elementos de esta última en un
SIG de escritorio tradicional son notables, y existen grandes diferencias entre las
soluciones que se obtienen en ambos casos. Estas diferencias tienen que ver sobre
todo con los usuarios y su perfil, así como con el diseño mismo de las aplicaciones.
Mientras que un SIG de escritorio se orienta principalmente a usuarios más
especializados, poder dotar a un sencillo navegador Web de capacidades de visua-
lización o edición de información geográfica hace que estos lleguen a un público
distinto y abre nuevas posibilidades. Los usuarios avanzados encuentran igualmente
utilidad en el Web Mapping, que se complementa en muchos terrenos con los SIG
Servidores remotos y clientes. Web Mapping 601
las posibilidades son aún menores ya que acciones tales como mediciones tampoco
pueden realizarse, ni siquiera con medios mecánicos como el caso de un mapa en
papel. Junto a esto, la resolución de una pantalla común es mucho menor que la
que presenta un mapa impreso, con lo que la calidad del mapa no es comparable.
Este tipo de mapas, por tanto, no responden a las funcionalidades que un
SIG ha de tener para poder prestar utilidad en el manejo y uso de información
geográfica, y difieren notablemente de un SIG de escritorio, incluso en la versión
más básica y primitiva de estos últimos.
Incorporar este tipo de mapas a una página Web no requiere ninguna tecnología
particular, y puede llevarse a cabo con elementos genéricos tanto del lado del cliente
como del servidor, pues el dato realmente no es un dato geográfico como tal, sino una
mera imagen (y esa imagen no va acompañada de información tal y como su sistema
de referencia), algo para lo cual cualquier servidor o cliente actual ofrece soporte.
La figura 23.2 muestra una imagen de una primigenia cartografía Web presen-
tada a través del visor Xerox PARC Map Viewer.
Figura 23.2: Visor de mapas Xerox PARC Map Viewer, uno de los primeros en su campo
optimizar el volumen de datos necesario para operar con la aplicación dentro del
entorno del navegador.
Si no se emplean estas tecnologías, un cambio mínimo en la configuración de
la pagina por parte del usuario (por ejemplo, modificar el encuadre del mapa en
una aplicación SIG), requiere la recarga total de la página, de la misma forma que
sucede cuando hacemos clic en un hiperenlace. En realidad, estamos pasando a
una página Web distinta.
En un entorno RIA, sin embargo, se cargan al inicio (en el primer acceso a
la página) los elementos que constituyen la aplicación en sí, y posteriormente se
transmiten únicamente los datos que vayan siendo necesarios a medida que el
usuario opere con la aplicación. Esto mejora notablemente la sensación del usuario,
ya que este nunca tiene ante sí una pantalla sin contenido mientras se carga la
página, puesto que esta ya no ha de cargarse de nuevo, y la carga de datos puede
además realizarse mientras el propio usuario opera.
AJAX 3 [370] es una técnica de desarrollo muy popular en este sentido, y de la
que los SIG Web hacen uso habitualmente. La figura 23.3 muestra una comparación
entre el esquema de una aplicación Web tradicional y una basada en AJAX.
Figura 23.3: Comparación entre el esquema de una aplicación Web tradicional y una
basada en AJAX.(adaptado de [370]).
cuyo contenido es abundante (no solo en extensión sino también en tipos de datos
suministrados), ya que permite una gran configurabilidad y deja en manos del
cliente (esto es, del usuario), la forma de tomar esos datos y mostrarlos.
Las capacidades de edición también tienen lugar en los SIG Web, ampliando las
posibilidades que la interactividad más básica ofrece. Un usuario puede añadir su
propia información a un SIG Web o bien modificar una capa existente empleando
su navegador. Las tecnologías SIG siguen en este sentido a las tecnologías Web más
generales, adoptando los conceptos de la Web 2.0 y ampliando las posibilidades
de los usuarios de colaborar directamente en los contenidos de la red. Por ejemplo,
OpenStreetMap [82] es un sitio equivalente a la bien conocida Wikipedia, en el cual
los usuarios pueden añadir sus propias descripciones de elementos geográficos que
ellos mismos definen.
A estas mismas tecnologías se les puede dar usos más restringidos sin que
necesariamente sea dentro de un proyecto colaborativo abierto. Por ejemplo, una
administración local puede dar acceso a los propietarios de suelo para que puedan
consultar su catastro, mediante un sistema de autenticación conveniente, incluso
editar información de sus parcelas. Está información puede ser de tipo no espacial
(es decir, los límites de las parcelas serían fijos), ya que las capacidades de edición
no han de limitarse a la componente espacial.
Por último, y aunque en la actualidad son pocos los servicios de este tipo que
existen, y no pueden compararse las prestaciones con las que ofrecen los SIG de
escritorio, la cartografía Web puede ofrecer herramientas de análisis. Además de
representar un conjunto de datos geográficos y permitir al usuario navegar en ellos
e incluso editarlos, pueden extraerse resultados a partir de esos datos.
Un tipo de aplicación bastante extendida de este tipo es el cálculo de rutas ópti-
mas. A partir de una capa con vías de comunicación un usuario establece un punto de
salida y otro de destino y la aplicación Web calcula la ruta que optimiza el tiempo em-
pleado o la distancia total recorrida, según lo explicado en el capítulo 19. [371] es un
ejemplo de este tipo de aplicaciones en el cual la interfaz no es la de un SIG de escrito-
rio habitual, sino que se introducen los lugares de origen y destino tecleando sus nom-
bres y después la ruta calculada se muestra sobre un mapa y también como un con-
junto de indicaciones a seguir. Es decir, que sobre una base de cálculo SIG se crea una
aplicación más completa que la que es habitual encontrar en un SIG, aprovechando
la mayor riqueza de elementos que pueden utilizarse dentro de un navegador Web.
El término Web Mapping, habitualmente empleado para designar a la cartogra-
fía Web, se sustituye por Web GIS a medida que las capacidades de las aplicaciones
Web aumentan, para indicar así que todos los componentes que forman parte de
un SIG en su sentido clásico, esto es, un SIG de escritorio, se incorporan a dicha
aplicación Web.
La figura 23.5 muestra un esquema de la evolución de la cartografía Web a
través de los tipos anteriormente descritos.
608 Sistemas de Información Geográfica
23.4.1. Mashups
Se conoce como mashup o aplicación Web híbrida a una aplicación que basa sus
contenidos en los de otras páginas Web, integrándolos y creando una nueva página
que ofrece un servicio distinto. Un mashup accede a los servicios que otras páginas
proporcionan de forma pública dando un uso distinto a estos en un nuevo contexto.
Por lo general, la creación de un nuevo mashup resulta sencilla, mucho más que
lo que sería el desarrollo desde cero de esa misma aplicación. Los mashups suponen
una extensión de los conceptos de la Web 2.0 al terreno de la programación, ya
que permiten una participación mayor por parte de los usuarios en los contenidos
de la propia Web. Si los blogs permiten hoy la publicación de texto sin que sea
necesario saber crear una página Web, los mashups hacen sencillo aportar a la
Web contenidos interactivos en forma de nuevas aplicaciones, sin requerir unos
elevados conocimientos de programación o tecnologías Web a bajo nivel.
De este modo, los mashups favorecen sobre todo la creatividad, y cuando una
aplicación Web pone sus servicios a disposición de otros para que los empleen
en la creación de algún tipo de mashup, ello no va enfocado a programadores
expertos, sino a cualquiera que sea capaz de tener una idea relevante para utilizar
esos servicios y sea capaz de ponerla en práctica. Tanto los servicios en sí como los
datos en los que estos pueden basarse, y que son empleados para la creación de un
mashup, alcanzan así un público mayor, rompiendo las barreras que anteriormente
restringían el uso de esas tecnologías a entornos profesionales especializados.
Los mashups existen en todos los ámbitos de las aplicaciones Web, pero es en
el ámbito SIG donde han adquirido una mayor importancia y en el que prolife-
ran en mayor medida. Es por esto que resulta de interés tratarlos con algo más
Servidores remotos y clientes. Web Mapping 609
Clientes Servidor
23.5.1. Servidores
El servidor es el elemento encargado de ofrecer el servicio como tal, respondien-
do a las peticiones del cliente. A medida que los clientes se hacen más complejos
Servidores remotos y clientes. Web Mapping 611
23.5.2. Clientes
Servidor Servidor
de de
Cliente procesos datos
Petición de proceso Petición de datos
cliente es, de este modo, el intermediario entre el usuario y los servicios y datos
que el servidor ofrece.
Como hemos visto al estudiar los servidores, las principales capacidades de estos
implican la transmisión de imágenes con cartografía ya elaborada, o bien directa-
mente capas, ya sean de tipo ráster o vectoriales. En algunos casos, el servicio ofreci-
do es un servicio de procesos, pero su resultado generalmente es también una capa,
por lo que, desde el punto de vista del cliente, la funcionalidad es en cierto modo
similar (aunque internamente requiera una implementación por completo distinta).
El cliente, por tanto, debe disponer de capacidades para formular peticiones
a servidores como los anteriormente descritos, así como para emplear las posibles
respuestas que estos devolverán. Estas últimas incluyen por lo general componen-
tes de representación, habitualmente con la forma típica de un visor en el que se
permite cambiar la escala y desplazar la vista, tal y como ya vimos en el capítulo
22. No obstante, estas capacidades pueden variar ampliamente de un cliente a otro,
desde el mínimo necesario para simplemente representar los datos obtenidos del
servidor hasta conjuntos de funcionalidades mucho más avanzadas pensadas para
un uso intensivo de esos mismos datos.
Distinguimos así dos tipos de clientes en función de las capacidades que tengan:
clientes ligeros y clientes pesados.
Cliente ligero. Se denomina ligero por el tamaño relativamente reducido
del programa en sí, lo cual va consecuentemente asociado a unas capacidades
limitadas. Hablamos de clientes ligeros cuando nos referimos a Web Mapping
y a clientes que se ejecutan sobre un navegador Web, los cuales son siempre
sencillos en cuanto a sus funcionalidades. En el momento de la carga de la
página Web que contiene al cliente, el navegador descarga toda la lógica del
programa, lo cual hace necesario limitar el tamaño de este.
No obstante, los clientes Web empiezan progresivamente a ampliar sus posi-
bilidades, y en ello juegan un importante papel otros servicios distintos a los
de mapas o los de datos, como pueden ser los de procesos. Estos permiten
614 Sistemas de Información Geográfica
A lo anterior debemos sumar el hecho de que las tecnologías Web en general son
recientes y en cierto modo inmaduras, y aunque se emplea gran cantidad de medios y
esfuerzo en el ámbito Web debido a su vital importancia en la actualidad, una buena
parte de los elementos tecnológicos sobre los que se fundamenta el Web Mapping
actual no están todavía completamente desarrollados y necesitan aún evolucionar.
El aspecto más problemático es, no obstante, la propia red, especialmente en
lo que respecta a su fiabilidad y rendimiento. Todos los datos que el cliente emplea
en una aplicación de cartografía Web provienen de la red, y por tanto existe una
fuerte dependencia entre la aplicación y el funcionamiento tanto de esta como del
servidor que a través de ella nos proporciona esos datos.
Si abrimos un archivo con datos espaciales en nuestro ordenador desde un SIG
de escritorio, podemos casi garantizar que esa misma operación funcionará de
igual modo si la repetimos en otro momento. Tener esa misma seguridad cuando
se trabaja con datos remotos no es tan sencillo, ya que la red puede no funcionar o
el servidor puede estar recibiendo en este momento gran cantidad de peticiones de
otros clientes y no ser capaz de gestionarlas eficientemente y ofrecernos al instante
respuesta a nuestra petición. En definitiva, las mismas circunstancias que afectan
a todas las aplicaciones Web y que son conocidas por todos.
El rendimiento de la red es más importante aún si cabe en el caso de trabajar
con información geográfica, ya que los datos suelen ser voluminosos. Visualizar
un mapa y que este pueda desplazarse y modificarse de forma igual de fluida que
al trabajar con una aplicación de escritorio requiere por un lado un ancho de
banda suficiente para transmitir la gran cantidad de datos necesarios, y por otro
la implementación de algunas técnicas particulares que facilitan este proceso. Por
su importancia, veremos en detalle las técnicas de tiling (división horizontal de
los datos geográficos en teselas) y cacheo (almacenamiento temporal de datos en
la máquina del cliente), utilizadas habitualmente en la actualidad.
en imágenes menores que formen un mosaico. Esto permite un trabajo más rápido,
al utilizar unidades mínimas de menor tamaño y poder reducir la necesidad de
transmitir datos a través de la red si se realiza una gestión correcta del conjunto
de elementos de ese mosaico.
Esta división es similar en forma a la propia que se da en los datos originales,
ya que, como sabemos (véase sección 4.4), estos también se encuentran divididos
horizontalmente. No obstante, se trata de una estrategia propia del sistema cliente–
servidor, que divide las propias imágenes que luego se representarán en este último,
de forma que en lugar de transmitir una única imagen se transmiten varias de
menor tamaño y la información correspondiente a la posición relativa de estas.
El cacheo, por su parte, es una técnica no exclusiva del ámbito SIG, sino de
la Web en general, y consiste en almacenar de forma temporal los datos obtenidos
de un servidor en la máquina local o bien en una máquina intermedia (proxy). De
este modo, si volviera a resultar necesario acceder a esos datos, no han de pedirse
al servidor, sino que pueden recuperarse de la copia local, con las ventajas que ello
tiene en cuanto a la velocidad de acceso y la fiabilidad del proceso.
El uso conjunto de tiling y cacheo puede disminuir sensiblemente el volumen
de datos a transmitir para, por ejemplo, modificar el encuadre de un mapa en una
aplicación SIG Web. La figura 23.8 muestra un ejemplo sencillo que servirá para
comprender el ahorro de datos que puede conseguirse con el uso conjunto de estas
técnicas.
Figura 23.8: Esquema del uso de tiling y cacheo para optimizar la transmisión de datos
en una aplicación SIG Web
En la figura puede verse del dato global al que se accede, dividido en una serie
Servidores remotos y clientes. Web Mapping 617
de unidades. Ello no quiere decir que el dato tenga ese número de divisiones o que
existan otros tantos ficheros. Puede tratarse de un único fichero, o de un número
muy elevado de ellos. Las divisiones se realizan a efectos de crear el mosaico de
imágenes a la hora de transmitir estas.
Inicialmente, la aplicación Web encuadra una región que cubre 20 elementos
o teselas. Si el usuario desplaza el encuadre para que cubra otro área distinta,
como en el caso mostrado en la figura, el cliente realizará una nueva petición
y obtendrá una nueva imagen, que tendrá exactamente el tamaño con que esa
imagen va a representarse. Este es exactamente el mismo tamaño que la imagen que
encontramos inicialmente en el encuadre original, y por tanto la representación de
este encuadre original y posteriormente el encuadre modificado requiere transmitir
dos imágenes que cubren cada una de ellas veinte teselas.
Si, por el contrario, aplicamos conjuntamente las técnicas anteriores de tiling
y cacheo, al variar el encuadre no es necesario obtener del servidor una imagen que
cubra todo el área a representar, sino tan solo los 8 elementos correspondientes
a la zona no cubierta por la imagen inicial, ya que los restantes ya habrán sido
obtenidos con anterioridad y se encontrarán almacenados (cacheados) en nuestro
ordenador. Es decir, el cliente crea la imagen a representar con 8 subimagenes pe-
didas al servidor y otras 12 ya descargadas previamente, reduciendo sensiblemente
el volumen de datos pedidos al servidor.
Cuando este esquema de funcionamiento se combina con tecnologías como
AJAX, citada anteriormente, y que añade a su vez mayor fluidez y una mejor
respuesta de la aplicación Web, el resultado es una aplicación SIG altamente
funcional y cuyo comportamiento se asemeja en cuanto a rendimiento al de un
SIG de escritorio trabajando con datos locales.
Este tipo de técnicas no son exclusivas de los SIG en Internet, sino que también
se aplican por igual al caso de SIG de escritorio cuando estos actúan como clientes
y acceden a datos remotos. Particularmente, son de especial relevancia en el caso de
los globos tridimensionales, en los cuales estas mismas técnicas se aplican no solo
para las imágenes a visualizar, sino también para los datos de elevación empleados
para dar forma al relieve.
La combinación de tiling y cacheo se lleva a cabo a múltiples escalas, de forma
que se reduce el número de operaciones a realizar y se obtiene un mayor rendimiento.
Se emplean las denominadas pirámides, que ya vimos en el apartado 3.5.2 dedicado
a la generalización cartográfica en un SIG. Estas pueden ser empleadas también en
el lado del servidor, incluso cuando este sirve mapas creados a partir de cartografía
vectorial. Para evitar tener que rasterizar los datos vectoriales cada vez que se
realiza una petición (lo cual supondría un gran coste en términos de proceso), se
rasterizan de antemano a distintas escalas, de forma que cuando el cliente efectúa
la petición ya se dispone de una imagen que servirle, sea cual sea la escala que pida..
Una técnica de reciente aparición es la denominada emphtiling vectorial. Apli-
cando los mismos principios que el tiling, es decir, la subdivision de los datos de
forma regular, las capas vectoriales se «trocean» en el origen y se envían después so-
lamente los datos necesarios para el area cubierta en el cliente. Combinando este en-
foque con el uso de capas con distinto detalle según la escala, se logran dos ventajas:
Disminución del volumen de datos.
Capacidad de modificar la simbología en el cliente.
Al enviar los datos en lugar de una representación de estos, el cliente es quien
debe establecer la simbología, lo cual permite que sea el usuario quien seleccione
cómo representar los elementos vectoriales. Al mismo tiempo, se logran ventajas
en la experiencia de usuario, debidas principalmente a la escalabilidad de los datos
vectoriales, que permite por ejemplo presentar transiciones más fluidas cuando
se modifica la escala del mapa.
Obviamente, este tipo de enfoque es válido unicamente para el caso de capas
vectoriales.
23.7. Resumen
Hemos visto en este capítulo las ideas fundamentales del binomio cliente–
servidor, tanto en su definición más general referente a servicios Web de cualquier
tipo, como en aquellos específicos del ámbito SIG. En base a esto, existen distintas
formas de llevar a la red tanto los propios datos geográficos como las funciona-
lidades principales de los SIG de escritorio, y que pueden variar en cuanto a su
complejidad, desde simples mapas estáticos hasta aplicaciones Web complejas.
Pese a las elevadas posibilidades que existen hoy en día en cuanto a tecnologías
Web, es importante conocer también las limitaciones del entorno de trabajo, las
cuales derivan tanto de la propia red como de otros aspectos, por ejemplo el hecho
de que la aplicación Web se ejecute dentro de un navegador. Estas limitaciones
llevan al desarrollo de técnicas particulares para optimizar el funcionamiento de
las aplicaciones SIG Web, entre las que se han de destacar el tiling y el cacheo.
Asimismo, conocemos ya las funcionalidades principales que debe presentar un
servidor para responder a las peticiones de un cliente SIG, que son principalmente
servir representaciones de los datos geográficos, servir los datos en sí o consultas
sobre estos, o bien servir procesos de análisis basados en dichos datos.
Capítulo 24
SIG móvil
Los SIG no han sido ajenos a la popularización de las tecnologías móviles y la imparable
expansión que sufren en la actualidad. Más aún, tratándose de un área relacionada con el
manejo de información geográfica y el análisis del medio, el aprovechamiento de tecnologías
que permiten llevar el SIG directamente a ese medio e «interactuar» directamente con
la información geográfica ha abierto nuevos horizontes dentro del mundo de los SIG.
En este capítulo veremos las características de una nueva forma de SIG basada en
su uso sobre dispositivos móviles, y trataremos las nuevas posibilidades que esto ofrece.
Asimismo, y puesto que los SIG móviles se apoyan en otra serie de tecnologías (especial-
mente de comunicación y posicionamiento), desarrollaremos estas para definir el marco
tecnológico en el que se encuadra esta rama particular del SIG.
24.1. Introducción
A lo largo de la historia de los SIG, han ido surgiendo nuevas tecnologías
como consecuencia de los cambios que se han producido en los dispositivos sobre
los que las aplicaciones de manejo de información geográfica pueden ejecutarse.
La aparición de nuevo hardware es seguida de cerca por los desarrolladores de
software, que adaptan sus aplicaciones para aprovechar las nuevas características
de esos dispositivos. Esto, además de impulsar el avance de las aplicaciones SIG
al permitirles mayor potencia de proceso o mayores capacidades, en ocasiones trae
consigo la aparición de ramas completamente nuevas cuando la tecnología de los
dispositivos da un salto cualitativo de grandes proporciones.
En el veloz avance que el hardware sufre constantemente, uno de los cambios
más radicales de los últimos tiempos es la cada vez mayor potencia y disponibilidad
de elementos portátiles. Esto ha propiciado la aparición del denominado SIG móvil,
así como una serie de tecnologías y herramientas relacionadas que van dando forma
a un sector muy distinto de lo que el SIG clásico representa, pero con una innegable
vinculación con este.
La implicación que estas nuevas tecnologías han tenido en el ámbito del SIG
va más allá de expandir sus posibilidades. Como vimos en el capítulo dedicado
a la historia de los SIG, los primeros programa SIG se ejecutaban sobre grandes
máquinas cuya adquisición estaba muy lejos del alcance del público especializado,
como sucedía con toda la tecnología informática de aquel entonces. El salto a los
ordenadores personales fue decisivo para iniciar una popularización de los SIG
620 Sistemas de Información Geográfica
SIG
SIG SIG
Web móvil
LBS
Inet. Disp.
Internet móvil móviles
Figura 24.2: Clasificación de aplicaciones del ámbito del SIG móvil en función de las
tecnologías empleadas (según [374])
útil para muchos profesionales, que pueden hacer uso de algoritmos como el del
«problema del viajante» si estos se encuentran implementados en su SIG móvil.
Dentro de las actividades que facilitan la labor en campo son de especial
interés las relacionadas con la captura de información geográfica, que se simplifica
notablemente como ya hemos dicho. Asimismo, también debemos citar cualquier
tipo de servicio al que pueda accederse mediante la conexión inalámbrica del
dispositivo y proporcione información complementaria o algún tipo de apoyo a la
persona que opera con este. Y por último, no ha de olvidarse el análisis SIG como
una herramienta con gran utilidad, ya que permitirá realizar procesos adicionales
que pueden añadir nuevas posibilidades, tales como, por ejemplo, la validación
en tiempo real de los datos recogidos.
La siguiente lista resume algunas de las actividades principales que pueden lle-
varse a cabo con un SIG móvil. Algunas de ellas pueden desarrollarse sin necesidad
de contar con todos los elementos posibles (dispositivo, conexión inalámbrica y sis-
tema de posicionamiento), aunque buena parte requieren el concurso de todos ellos.
Navegación. Cálculo de ruta óptima entre dos puntos, guiado en interiores
(centros comerciales, museos, etc.), aparcamiento guiado, gestión de tráfico.
Una de las actividades más populares y extendidas.
Inventario. Recogida de datos de cualquier tipo sobre el terreno. Cubre
desde datos de inventarios forestales a prospecciones arqueológicas, pasando
por datos censales o infraestructuras urbanas, entre muchos otros.
Información. Paginas amarillas espaciales o guias de viaje virtuales. En
general, cualquier servicio de mapas o de puntos de interés con posición (mo-
numentos, tiendas, aparcamientos...) accesible desde un dispositivo móvil.
Emergencia. Localización de situaciones de emergencia, asistencia a vehícu-
los, optimización de asistencias y tiempos de respuesta. El usuario, ante una
emergencia, puede conocer su posición e informar de ella, o bien a través de
la red puede conocerse esta y emplearse para dar una respuesta óptima y
una ayuda lo más eficiente posible.
Publicidad. Anuncios basados en localización, indicación de negocios cer-
canos, promociones para comercios próximos. Existen algunas limitaciones
para evitar la publicidad no deseada, pero si el usuario da permiso, puede
recibir información sobre posibilidades comerciales en su entorno.
Seguimiento. Tanto de personas como de productos, a lo largo de rutas
predefinidas o no. También puede servir para monitorizar una actividad
en las distintas localizaciones por las que pase el usuario. Por ejemplo, una
compañía telefónica puede estudiar los patrones de comportamiento en lo
que al acceso a la red respecta, según el emplazamiento desde el que se accede.
Gestión. Por ejemplo, de infraestructuras, de instalaciones, o de flotas. El
dispositivo puede ir sobre el elemento a gestionar o bien emplearse para
llegar hasta él y efectuar allí algún tipo de control.
Ocio. Buscadores de amigos o juegos con componente espacial, entre otros.
628 Sistemas de Información Geográfica
clase. Existen asimismo métodos combinados que emplean ambas técnicas para
el cálculo posicional.
La figura 24.3 esquematiza lo anterior.
a) b)
escritorio, ya que las funcionalidades que resultan de interés son en buena medida
aquellas que encontramos en estos. La lectura de datos y su representación son
de nuevo los pilares fundamentales entre las capacidades que una aplicación para
SIG en campo debe presentar, aunque tanto la edición como el análisis cobran
relevancia y se implementan habitualmente para usos particulares. A su vez, tanto
la lectura como la representación de datos son dos de las áreas en las que es más
necesaria una adaptación debido a las limitaciones del dispositivo.
En el caso de la lectura de datos, la limitada capacidad de almacenamiento
y, sobre todo, memoria y velocidad de proceso, plantean un problema a la hora
de desarrollar un software que se comporte de manera similar a un SIG de escri-
torio. Aunque el desarrollo de ciertos tipos de dispositivos móviles es rápido y sus
capacidades casi alcanzan en algunos casos a las de un ordenador de sobremesa,
el manejo de datos voluminosos sigue estando restringido. Este tipo de datos, no
obstante, no son necesarios con tanta frecuencia como en el trabajo clásico con un
SIG de sobremesa y, dado que otro tipo de funcionalidades están más limitadas,
el rango de actividades que se van a desarrollar con tales datos es más reducido,
lo que simplifica el desarrollo de todo lo relativo a su acceso y manejo.
Aunque un SIG móvil era en su concepción inicial un elemento autónomo capaz
de contener los datos necesarios para su funcionamiento e incluso incorporar nuevos
datos mediante la creación in situ de estos, la aparición de las redes inalámbricas
ha cambiado esta tendencia y ahora el desarrollo se enfoca hacia el consumo de
datos externos a través de la red. Este planteamiento soluciona las dificultades que
existen para la lectura de datos de gran volumen, ya que el dispositivo se convierte
en un cliente y delega las tareas más costosas al servidor correspondiente.
En los dispositivos de mayor potencia, adecuados para un desarrollo profesional
del SIG en campo y para la recogida de datos, el SIG conserva sus capacidades
de acceder a datos locales, mientras que en otros menos potentes y especializados,
tales como teléfonos móviles, se consumen exclusivamente datos remotos. Algunas
aplicaciones con base SIG, tales como navegadores, pueden utilizar cartografía
digital almacenada en el dispositivo, pero la aplicación como tal no permite la
utilización de otros datos distintos o la lectura de diversos formatos, como sí sucede
en un SIG de escritorio.
En lo referente a la representación, la principal diferencia que se ha de considerar
a la hora de diseñar un SIG móvil es, como parece lógico, la reducida dimensión de
las pantallas. Especialmente a la hora de visualizar datos y aplicar una simbología
a estos, se ha de tener en cuenta que existe una limitación de tamaño y que no
pueden aplicarse ideas idénticas a las que serían adecuadas para una pantalla de
ordenador común, ya que, al trasladarlas a la del dispositivo móvil, puede obtenerse
como resultado un mapa carente de utilidad que no transmite adecuadamente la
información geográfica que contiene. Los conceptos de generalización cartográfica
que mencionamos en el apartado 3.5 (por ejemplo, la exageración de elementos)
han de tenerse muy presentes en la creación de un SIG móvil.
SIG móvil 633
Figura 24.5: Dos servicios basados en localizacion sobre un teléfono móvil. En la parte
izquierda, Foursquare [http://www.foursquare.com]. En la parte derecha, Life360
[http://www.life360.com].
24.7.1. El contexto
Un hecho básico a considerar a la hora de diseñar software para un SIG móvil
es que en este el software conoce dónde se encuentra el usuario, y el trabajo de
dicho usuario normalmente se basa en emplear esa localización para realizar algún
tipo de tarea. Aparece así un concepto que carece prácticamente de importancia
en un SIG de escritorio que se ejecuta sobre una máquina inmóvil, pero que en
el SIG móvil y en cualquier otra aplicación móvil resulta fundamental: el contexto.
Entendemos por contexto toda aquella información que puede ser utilizada
para caracterizar la situación de una entidad. Una entidad es una persona, lugar o
objeto que se considera relevante para la interacción entre el usuario y la aplicación,
pudiendo considerarse como entidad también a estos últimos [377].
Los factores implicados en definir un contexto son variados, pero pueden
considerarse divididos en cuatro grupos fundamentales [378]:
Contexto espacial. Caracterizado por dónde se encuentra el usuario.
Contexto social. Caracterizado por quién es el usuario.
Contexto informacional. Caracterizado por qué recursos se hallan cerca
del usuario.
Contexto técnico. Caracterizado por las características de la red y los
dispositivos.
Si atendemos al caso particular de los servicios basados en mapas, [379] propone
los tipos de contexto que se detallan a continuación:
Usuario. La identidad del usuario permite considerar aspectos tales como
636 Sistemas de Información Geográfica
24.8. Resumen
Los SIG móviles combinan las tecnologías SIG con los dispositivos móviles, el
acceso inalámbrico a Internet y los sistemas de posicionamiento, para ofrecer una
solución ventajosa para el desarrollo de trabajo de campo. De particular interés
son los denominados Servicios Basados en Localización, donde un tercero ofrece
servicios que dependen de la posición en cada momento del dispositivo. Otras de
las tareas fundamentales del SIG móvil son la navegación o la captura de datos
espaciales directamente en el dispositivo, las cuales son las principales en lo que
hemos denominado SIG «en campo».
Para comprender el funcionamiento de las tecnologías implicadas en el SIG
móvil, hemos analizando por separado los métodos de posicionamiento, las redes
inalámbricas y las aplicaciones de software, cada una de las cuales desempeña un
papel básico en definir las capacidades de un sistema SIG móvil.
Parte V
La visualización
Capítulo 25
25.1. Introducción
Visualizar la información geográfica es una parte fundamental del trabajo con
un SIG. Aunque no es un aspecto imprescindible, y es posible incluso encontrar
SIG enfocados al análisis en los cuales no existe forma de visualizar la información
con la que se trabaja, la gran mayoría de soluciones, especialmente las de escritorio,
incluyen las funcionalidades de visualización como elemento básico, y estas resultan
imprescindibles para la inmensa mayoría de usuarios.
Como ya vimos en el capítulo dedicado a las herramientas de escritorio, dos
son las tareas que un SIG debe permitir en lo que a visualización respecta: crear
representaciones dentro del entorno mismo del SIG y generar representaciones
autocontenidas que puedan imprimirse y den lugar a un documento cartográfico
en sentido clásico. La representación en pantalla dentro del SIG puede guardar
similitud con la idea clásica de mapa, o bien ser distinta, aprovechando elementos
que no son habituales en esos mapas y que la tecnología del SIG sí que permite.
En ambos casos, no obstante, lo más relevante de cara a los conocimientos que el
usuario del SIG debe tener en cuanto a visualización es la capacidad de convertir los
datos en elementos visuales, con independencia de que estos vayan a representarse y
usarse en pantalla durante una sesión de trabajo, o bien vayan a imprimirse en papel
para su uso posterior en ese soporte. Este es el objetivo de esta parte del libro: propor-
642 Sistemas de Información Geográfica
cionar las ideas fundamentales para que el usuario de SIG logre las mejores represen-
taciones visuales durante su trabajo con el SIG. Para ello, lo primero es conocer qué
nos ofrece un SIG como herramienta de visualización y qué podemos esperar de él.
como esta resulta fundamental en un libro de SIG, ya que el usuario de SIG necesita
conocer cómo emplear el SIG para visualizar la información con la que trabaja.
Geovisualización
Descubrir
Objetivos
Presentar
Privada
ia
nc
die
Cartografía
Au
clásica Baja Alta
Pública
Interactividad
una realidad, por lo que debe recurrirse a la utilización conjunta de una u otra
manera. En [382] puede encontrarse este tema desarrollado con más profundidad.
Aunque en los SIG faltan muchos de los elementos y de las capacidades de
las aplicaciones de visualización científica, algunas ideas de esta sí que aparecen
en ellos, y en su conjunto amplían la potencialidad del mapa como metáfora de
una realidad que se representa. La más básica de todas ellas es la interactividad
que permiten las herramientas de navegación. Aunque lejanas de lo que podemos
encontrar en aplicaciones de visualización científica especializadas, ofrecen un
respuesta por parte del mapa a las acciones de quien lo utiliza. Frente al carácter
pasivo del mapa impreso, las representaciones dentro de un SIG son activas.
Otros elementos menos frecuentes son la incorporación de animaciones y la
visualización tridimensional. Sin ser equiparable a las capacidades de represen-
tación multidimensional de un programa de visualización científica, esta última
supone, no obstante, un salto cualitativo enorme frente al carácter bidimensional
del mapa impreso. En el capítulo 28 veremos más acerca de las representaciones
tridimensionales y las animaciones.
Este nuevo enfoque que se produce en el ámbito cartográfico al incorporar
parte de las ideas de la visualización científica se conoce como geovisualización,
y conforma una rama de esta última dedicada al caso particular de visualizar
la información geográfica. Una forma muy gráfica de ver la diferencia entre el
documento cartográfico clásico y la geovisualización que se produce dentro de un
SIG es mediante el denominado Cubo cartográfico [383] (Figura 25.2).
El cubo cartográfico contiene tres ejes, en los cuales se representan el grado
de interactividad, el objetivo principal de la representación y la audiencia a la
que esta se dirige. La cartografía clásica y la geovisualización se sitúan en vértices
opuestos, ya que presentan características distintas en estos tres conceptos. El
mapa clásico esta pensado para presentar una información de la que ya se dispone,
pero no es una herramienta para descubrir nueva información. La geovisualización,
648 Sistemas de Información Geográfica
por el contrario, con la posibilidad que ofrece al usuario de «explorar» los datos,
puede servir para extraer información que no se conocía de antemano a la hora de
crear la representación. La interactividad es alta en la geovisualización y baja en el
mapa clásico, como ya hemos visto. Por último, la audiencia en la geovisualización
es privada, entendiéndose con esto no que existan restricciones para su acceso,
sino que en su mayoría son representaciones fugaces que cambian según el usuario
interactúa con el software, y por tanto lo normal es que solo sea ese usuario quien
las disfrute, no teniendo un carácter persistente como el mapa impreso.
planteamiento supone, sin embargo, una integración muy débil y que presenta
numerosos inconvenientes, entre los cuales cabe citar los siguientes:
Incapacidad de la aplicación de diseño para analizar los datos. La
representación puede hacerse de forma completamente manual, creando
cada uno de sus elementos y definiendo sus características sin la ayuda de
ninguna rutina, pero también puede llevarse a cabo haciendo uso de alguna
funcionalidad suplementaria. Por ejemplo, para establecer los colores de los
distintos polígonos de una capa puede usarse el valor de uno sus atributos
y establecer una rampa de colores en función de este. El SIG puede hacer
esto automáticamente, pero una aplicación de diseño, puesto que no puede
interpretar esos atributos y carece de esa funcionalidad, requerirá que el
cartógrafo lleve a cabo esa asignación de colores de modo manual.
Dificultad de actualización. Al no estar la representación sincronizada
con la base de datos, las modificaciones en esta no le afectan, y es necesario
rehacer los mapas cada vez que los datos cambien, ya que esa actualización
no se produce de forma automática.
Nula o muy limitada capacidad de automatización de tareas. Un
SIG puede automatizar tareas tales como la subdivisión de un mapa en
submapas menores (véase la imagen 22.5) o la producción de mapas sobre un
conjunto de capas. Por ejemplo, podemos «mostrarle» al SIG cómo queremos
el diseño del mapa de una variable dada y que él se encargue de generar los
mapas de ese modo para otra serie de variables recogidas en otras tantas
capas en nuestra base de datos. Puesto que la aplicación de diseño gráfico
no puede por sí misma acceder a esa base de datos, esta automatización no
es posible en caso de crear cartografía con ella.
Mayor posibilidad de introducir errores cartográficos. La permisivi-
dad de una aplicación de diseño gráfico es un arma de doble filo. Por una lado,
permite al cartógrafo tomarse ciertas licencias cuando ello resulta necesario,
pero también cuando no es correcto hacerlo. La aplicación no entiende, por
ejemplo, que la orientación del mapa no debe variar si no lo hace también la
rosa de los vientos o que el canevás (la rejilla que acompaña al mapa) debe
estar correctamente situado, y permite que se introduzcan errores que en
un SIG se encuentran completamente controlados.
Al contrario de lo que sucedía con las herramientas de visualización científica,
los SIG sí que van progresivamente incorporando la ideas de estas aplicaciones
de diseño gráfico, permitiendo cada vez más la labor artística del cartógrafo y
adaptándose a sus necesidades igual que se adaptan a las de otros usuarios con
requerimientos distintos de visualización. Aún así, este tipo de capacidades deben
considerarse como algo avanzado que pocos SIG incorporan, ya que la mayoría
de ellos se centran en la visualización dentro de su propio entorno y solo permiten
la elaboración de cartografía rudimentaria o, al menos, lejos de los estándares de
la producción cartográfica clásica.
25.5. Resumen
La visualización es parte vital de los SIG y por ello estos disponen de abundantes
funcionalidades para la representar la información geográfica. Existen, no obstante,
importantes diferencias entre la creación de una representación dentro de un SIG
y la labor tradicional del cartógrafo. Desde el punto de vista conceptual, una
diferencia fundamental es el hecho de que el usuario de la información geográfica
en un SIG no la recibe en un formato visual, sino como meros datos numéricos,
siendo él quien ha de procurarse esa representación visual.
La visualización de datos es en la actualidad un apartado de gran importancia
no solo en el campo del SIG, sino en todo el ámbito científico en general. Las aplica-
ciones existentes para la visualización de datos de diversa índole superan en muchas
ocasiones a los SIG en cuanto a sus capacidades, especialmente en el manejo de datos
multidimensionales y la interactividad entre el usuario y la representación. El uso
conjunto de estas aplicaciones y los SIG amplia las posibilidades de estos, que por
el momento no incluyen dichas capacidades avanzadas entre sus funcionalidades.
Otras aplicaciones que complementan a los SIG en lo que a la producción de
cartografía respecta son las empleadas en el diseño gráfico. Las funcionalidades
de estas, no obstante, sí que están siendo incorporadas progresivamente por los
SIG, de tal modo que éstos cada vez van siendo herramientas más completas que
ofrecen todo lo necesario para la creación profesional de cartografía.
Capítulo 26
26.1. Introducción
Cuando visualizamos cualquier tipo de información geográfica, ya sea a través
de un mapa clásico o de algún elemento gráfico en la pantalla de un ordenador,
estamos utilizando un lenguaje visual para transmitirla. Del mismo modo que al
hablar empleamos un lenguaje oral y al escribir un lenguaje escrito, siempre que
plasmemos la información geográfica en una serie de elementos visuales estaremos
empleando este lenguaje visual.
Existen muchas similitudes entre el lenguaje visual y el lenguaje que utilizamos
cada día para comunicarnos, comunes todas ellas a cualquier forma de lenguaje.
Por una parte, disponemos de una serie de elementos básicos que podemos usar,
que son como las palabras con las que formamos frases y expresamos ideas. Estas
se combinan de acuerdo con unas normas y siguiendo esquemas definidos que
conocen tanto el creador del mensaje como el receptor, y sin los cuales no seria
posible establecer la comunicación. Por otra, el conocimiento y manejo adecuado
de todos estos elementos define nuestra capacidad de emplear el lenguaje y expresar
correctamente aquello que queremos transmitir.
Al igual que en el lenguaje hablado, y por su carácter simbólico, el lenguaje
visual implica la existencia de unas limitaciones. Es decir, no podemos expresar
todo aquello que tratamos de representar, y un mapa nunca puede contener y
transmitir fielmente toda la realidad de una zona o de un fenómeno espacial dado.
Sin embargo, un correcto uso del lenguaje permite comunicar gran cantidad de
información y hacer de este una herramienta de gran utilidad, más allá de sus
limitaciones, o incluso aprovechando estas para su propio beneficio.
652 Sistemas de Información Geográfica
debemos ver cómo emplearlos para que esa información se transmita de la mejor
manera posible, ya que existen diversas propiedades de los elementos visuales que
podemos emplear, siendo más adecuadas unas u otras según sea la circunstancia.
Figura 26.1: Ejemplo de uso de las distintas variables visuales. De izquierda a derecha:
posición, forma, tamaño, tono, valor, textura, y orientación
26.2.1. Posición
La posición constituye un caso particular de variable visual a la hora de emplear-
la en la creación de cartografía, ya que viene fuertemente condicionada por el hecho
de que todo aquello que representamos tiene una posición en el espacio y, por tanto,
ha de tener una posición concreta en el mapa. Mientras que en cualquier otro tipo
de gráfico la posición puede modificarse a voluntad para transmitir algún tipo de in-
formación, tal y como haremos con las restantes variables visuales, en el caso de un
654 Sistemas de Información Geográfica
26.2.2. Forma
La forma viene definida por el perímetro exterior del objeto. Esto no implica
que únicamente se pueda aplicar la forma a símbolos de superficie, ni tampoco
que se debe tratar de un perímetro cerrado como el de una forma poligonal.
La forma se aplica fundamentalmente a los símbolos puntuales, situando un
símbolo de una forma dada sobre las coordenadas exactas del punto a representar.
Su aplicación a símbolos lineales es difícil y no se da, mientras que en el caso
de aplicarse sobre símbolos de superficie requiere la alteración de los polígonos
representados (por ejemplo, que tracen los límites de países), dando lugar a una
representación imprecisa, al menos en lo que al contorno del polígono respecta.
Esto se produce únicamente en el caso de los denominados cartogramas, un tipo
particular de mapas que veremos en el próximo capítulo.
26.2.3. Tamaño
El tamaño se refiere a la dimensión del símbolo. Para el caso de símbolos pun-
tuales, puede aplicarse sin más que hacer más grande o pequeño el símbolo en sí. En
el caso de líneas, el grosor de estas constituye la forma de aplicar la variable tamaño.
Al igual que sucedía con la forma, en las superficies va a implicar la modificación de
estas, por lo que se emplea únicamente en los cartogramas. Otra forma de aplicar el
tamaño a los símbolos superficiales es hacerlo sobre la textura con la que estos se re-
llenan, usando un único patrón con diferentes tamaños en sus tramas (Figura 26.2).
26.2.4. Color
La variable color es la más importante de todas las variables visuales, y la
que a su vez requiere un grado mayor de detalle en su exposición, debido a la que
complejidad que presenta y a las posibilidades que ofrece2 .
Existen muchas formas de representar y crear un color, a través de los deno-
minados espacios de color. De cara a su uso como variable visual en el contexto
de este capítulo, resulta de especial interés el uso del espacio de color HSV, en el
cual un color se define mediante un espacio de coordenadas cilíndrico, según lo
mostrado en la figura 26.3.
Figura 26.3: Espacio de color HSV explicando el significado de las componentes tono
(H), saturación (S) y valor (V) (adaptado de Wikipedia).
Tres son las componentes de un color, las cuales establecen sus coordenadas en
el cilindro: tono (H, de Hue en su denominación inglesa), valor (V) y saturación (S).
El tono es lo que en el lenguaje común denominaríamos color, es decir el nombre
del color, por ejemplo verde, rojo o amarillo. Está relacionado con la longitud
de onda de la luz, y distintas longitudes de onda producen un efecto perceptivo
distinto, haciendo que distingamos así los diferentes colores. En el cilindro del
2
Si estas leyendo una copia impresa de este libro, es posible adquirir esta tanto en versión a
color como en versión en blanco y negro. En caso de usar esta última, no vas a poder apreciar
correctamente algunas de las imágenes de este capítulo, por lo que te recomiendo acudir a la versión
digital del libro (recuerda, este es un libro libre y puedes obtener esa versión de forma gratuita en
el página Web del libro), al menos para este capítulo, o, mejor aún, para toda esta parte dedicada a
la visualización. Otros capítulos en otras partes del libro también presentan figuras en color, pero
pueden ser interpretadas igualmente en blanco y negro. En las de este, no obstante, el uso del color
es más relevante y será mejor utilizar una versión con figuras a todo color, ya sea impresa o digital.
656 Sistemas de Información Geográfica
espacio de color, el tono viene marcado por el ángulo del vector definido por la
posición del color y el eje central, sobre el plano perpendicular a dicho eje.
El tono puede verse alterado por los tonos del entorno, especialmente en símbo-
los de pequeño tamaño. Aunque es una variable para la que la percepción humana
tiene gran sensibilidad, en los símbolos pequeños puede ser difícil de identificar y pue-
den producirse una falsa percepción si comparten espacio con otras más grandes de
un tono distinto. Por ejemplo, al trazar una linea con un grosor fino que atraviesa una
serie de polígonos de distintos colores, el tono de esta se percibirá como distinto en
cada uno de esos polígonos por el efecto que sus colores causan como colores de fondo.
Por su parte, el valor indica la claridad del color. Un tono azul puede ser
más claro o más oscuro sin dejar de ser azul. Esa variación que se produce es una
variación del valor del color. En el caso de usar una tinta de un color dado, la mezcla
de esta con una pintura blanca produce una disminución del valor, aclarándose
progresivamente según añadimos más de esta última en la mezcla. A la hora de
imprimir se hace uso de tramas más o menos densas para modificar el valor, sin
modificar así la tinta. Según el espacio en blanco que se deja entre los puntos de tinta
impresos, se consigue la apariencia de un color de mayor o menor valor. El valor
se define en el cilindro de coordenadas como la altura del color sobre el eje central.
La capacidad de diferenciar dos símbolos con valor distinto varía en función
del tipo de símbolo. Así, es mayor en el caso de símbolos de superficie, mientras
que en el caso de símbolos puntuales y lineales está relacionada con el tamaño. Si
el punto es muy pequeño o la línea muy delgada, es más difícil apreciar el valor
y, por tanto, comparar este con otro o extraer la información que mediante esa
variable visual se intenta transmitir.
La saturación, por último, expresa la pureza relativa del color. Depende del
número de distintas longitudes de onda que aparecen en un color dado. A medida
que disminuye la saturación, el color va pareciendo más grisáceo, y el número de
longitudes de onda es mayor. En el cilindro del espacio de color queda definido
por la distancia del color al eje central.
En lo que al color como variable visual respecta, cada una de estas componentes
de un color son a su vez variables visuales, y como tales pueden emplearse para
simbolizar los distintos elementos de un mapa. En la práctica, el tono y el valor son
utilizadas muy frecuentemente, pero la saturación tiene una utilidad muy limitada,
por lo que es muy infrecuente su uso. En lo sucesivo, por tanto, trataremos el color
no como una única variable visual sino como dos distintas: valor y tono.
Si tienes un programa de dibujo o de edición de imágenes, puedes experimen-
tar construyendo colores según sus componentes, usando el habitual selector de
colores. Si no, prueba en la siguiente dirección Web, donde encontrarás un selector
de colores on–line: http://www.dgx.cz/tools/colormixer/stripe.php?hsv=
space%20color.
La figura 26.4 muestra el aspecto de un selector de colores, en el que puede verse
cómo estos pueden definirse mediante sus componentes tono (H), saturación (S)
Conceptos básicos de visualización y representación 657
Figura 26.4: Selector de colores mediante sus componentes tono (H), saturación (S) y
luminosidad (L). La componente de la parte inferior es la denominada alpha, que indica
la transparencia del color.
26.2.5. Textura
26.2.6. Orientación
La última variable visual es la orientación. Se aplica sobre los símbolos puntua-
les, siempre que estos no presenten simetrías que impidan percibir correctamente la
orientación. Por ejemplo, para el caso del círculo, resulta obvio que no tiene sentido
aplicar la orientación como variable visual. Los símbolos compuestos por formas
geométricas son adecuados para emplear la orientación, mientras que los símbolos
pictóricos no responden de igual forma y producen en la representación sensación
de desequilibrio. Se recomienda, por tanto, emplear esta variable únicamente con
los primeros.
Puede aplicarse también sobre los símbolos de superficie a través de la textura,
variando la orientación de esta. Sobre las líneas, no obstante, su aplicación no
es posible. Puede emplearse en caso de líneas con textura, pero esto requiere un
ancho excesivo para una correcta percepción.
Posición
e impreciso afirmar que un color es el doble de oscuro que otro, y lo más que
podemos hacer es situarlo entre dos valores distintos (de ahí que posea la propiedad
ordenada), pero no deducir una cifra que exprese una cantidad o proporción. Las
restantes variables visuales resulta claro que no poseen esta propiedad.
En el cuadro 26.3 se muestra un resumen de todo lo anterior.
n
ció
ión
ra
ta
añ
tu
ien
lor
rm
sic
no
m
Or
Va
Po
To
Ta
Te
Fo
Asociativa ♦ - ♦ - ♦ ♦ ♦
Selectiva ♦ ♦ - ♦ ♦ ♦ ♦
Ordenada ♦ ♦ - ♦ - - -
Cuantitativa ♦ ♦ - - - - -
Cuadro 26.1: Cuadro resumen con las propiedades de las variables visuales.
Aunque las ideas de Bertin conforman una sólida base teórica de reconocido
valor, lo cierto es que debe permitirse cierta laxitud en la aplicación de estas, y
no considerar que existe una dicotomía estricta en el caso de las propiedades antes
presentadas. Hay muchos factores y circunstancias que pueden alterar la forma
en que estas propiedades se presentan, y alterar la intensidad con que aparecen en
unas u otras variables visuales. Por ejemplo, aunque el tono no presenta, según la
propuesta original de Bertin, la propiedad ordenada, sí que puede emplearse para
representar un orden en determinadas circunstancias. Si estamos simbolizando
unos valores de temperatura, podemos establecer una transición de colores entre el
rojo y el azul, que serán fácilmente identificados y ordenados por el observador del
mapa, ya que el primero de estos colores se asocia habitualmente al calor y el segun-
do al frío. En este contexto particular, el tono sí presenta la propiedad ordenada.
En los capítulos 14 o 13 verás muchos ejemplos de representaciones en que se usan
gradaciones de tono para simbolizar variables de tipo cuantitativo, ya sean razones
o proporciones. Estas guardan, no obstante, cierta lógica, de tal modo que puede en-
tenderse adecuadamente su significado. Como veremos en el próximo capítulo, esto
también tiene relación con el tipo de mapa, de tal modo que ciertos tipos de mapas
permiten por sus propias características el uso del tono para este tipo de variables.
Junto a lo anterior, algunos autores (véase [385]) expanden el número de varia-
bles visuales y se han desarrollado revisiones a las propiedades enunciadas por Ber-
tin basadas en estudios prácticos, que demuestran cómo pueden existir variaciones
sobre la relación entre estas y las distintas variables visuales (por ejemplo, [386]).
662 Sistemas de Información Geográfica
modificar los elementos visuales o su entorno sin que dejen de transmitir su infor-
mación y sean confundidos sus características, y cómo podemos facilitar que se
perciban exactamente como pretendemos.
Figura 26.9: Contraste perceptivo del tamaño. Ambos circulos grises tienen el mismo
tamaño, pero el de la izquierda aparenta ser mayor.
de un mapa incorpore elementos que hagan más patente la información que este
contiene, facilitando la correcta percepción del mapa en su conjunto.
Un factor clave en este sentido es la adecuado separación entre el fondo y la
figura. Aquello que queremos que resulte visible con carácter principal (en el caso
de un mapa, sus distintos elementos) debe separarse de aquello que constituye el
fondo de la imagen, y debe atraer la atención del observador de manera prioritaria.
En caso de no ser así, puede resultar difícil «descubrir» la información que el
mapa transmite, al quedar esta al mismo nivel que la de otros elementos de menor
importancia. El ejemplo clásico de la figura 26.10 ilustra este hecho. Puesto que
no existe una diferenciación clara entre el fondo y la figura, no es obvio saber si
la imagen pretende representar una copa o dos caras.
Figura 26.10: Sin un adecuado contraste entre fondo y figura la imagen presenta
ambigüedad.
Figura 26.11: Mapa con jerarquía incorrecta (a) y mapa adecuadamente jerarquizado (b).
26.6. Resumen
Para transmitir correctamente cualquier tipo de información mediante el len-
guaje visual, es necesario conocer sus elementos y saber emplearlos de modo
adecuado. La semiología gráfica se encarga del estudio de los símbolos del lenguaje
visual, y en este capítulo hemos visto algunas de sus ideas principales.
De especial relevancia resultan las denominadas variables visuales, las cuales
empleamos para la caracterización de símbolos. Existen seis variables visuales:
posición, forma, tamaño, color, textura y orientación. El color a su vez se puede
dividir en tres: tono, valor y saturación. De estas tres, solo las dos primeras, tono
y valor, tienen aplicación práctica en el ámbito cartográfico.
Las variables visuales presentan distintas propiedades, que definen a su vez
los niveles de organización. De menor a mayor organización, estas propiedades
son las siguientes: asociativa, selectiva, ordenada, cuantitativa. Las propiedades
de una variable visual condicionan el tipo de información que puede transmitirse
haciendo uso de ella. Cuando se combinan varias variables visuales que poseen una
misma propiedad, esta propiedad se presenta con mayor fuerza en el resultado.
Podemos ayudar a que la percepción de la información que transmitimos con un
elemento visual sea mejor, atendiendo a aspectos como el contraste entre el fondo
y la figura, así como estableciendo una correcta jerarquización entre los distintos
elementos. Igualmente, debemos prestar atención a los contrastes perceptivos,
para evitar que estos aparezcan y se produzca una percepción incorrecta.
670 Sistemas de Información Geográfica
Capítulo 27
Dentro o fuera del SIG, el mapa es el medio por excelencia para transmitir la informa-
ción geográfica de modo visual. Ser capaz de crear representaciones óptimas durante el traba-
jo con un SIG implica ser capaz de entender cómo crear un mapa y saber escoger qué tipo de
mapa es el más adecuado en función de la información a mostrar. En este capítulo estudiare-
mos todo lo relativo a los mapas y sus conceptos fundamentales, así cómo las consideraciones
necesarias a la hora de crearlos, con objeto de poder abordar en el siguiente el trabajo directo
de visualización dentro de un SIG y analizar qué aporta este al concepto clásico de mapa.
Para seguir este capítulo es necesario haber estudiado el capítulo anterior, ya que
haremos uso de las ideas entonces presentadas acerca de las variables visuales. Algunos
conceptos relativos al diseño cartográfico han aparecido ya en capítulos previos, por lo que
no se repetirán en este. En particular, el capítulo 3 dedicado a los fundamentos cartográficos
y geográficos contiene materia que debe conocerse antes de abordar la lectura del presente.
27.1. Introducción
Los mapas han sido empleados desde la antigüedad para recoger la información
geográfica y transmitirla. Como ya dijimos en el capítulo anterior, podemos enten-
der un mapa como un medio de comunicación visual que constituye un lenguaje con
un objetivo particular: la descripción de relaciones espaciales. Una mapa es, pues,
una abstracción simbólica de algún fenómeno real, lo cual significa que presenta
un cierto grado de simplificación y generalización.
El diseño, producción y uso de un mapa como forma de comunicación con-
forma lo que se conoce como proceso cartográfico. Más concretamente, el proceso
cartográfico conlleva cuatro etapas o subprocesos, a saber:
Recoger los datos.
Manipular y generalizar los datos para diseñar y construir mapas.
Visualizar el mapa.
Interpretar la información.
La labor del cartógrafo se centra en el segundo de estos puntos, mientras que el
usuario del mapa lleva a cabo los dos últimos. Será en esa construcción de los mapas
en lo que nos fijemos a lo largo de este capítulo, para conocer los conceptos y reglas
que rigen la comunicación cartográfica a través del uso de mapa. El lenguaje visual
que estudiábamos en el capítulo 26 se convierte ahora en un lenguaje cartográfico
al adaptarlo al caso particular de la creación de mapas, y estas reglas (equivalentes
672 Sistemas de Información Geográfica
creado a partir de una misma información, pero la forma de mostrar esta es bien
distinta. Para un uso científico, este último mapa resulta claramente insuficiente,
mientras que el primero es adecuado. Sin embargo, si la audiencia es no especializada,
tal como los lectores de un periódico que deseen saber si mañana podrán o no salir
al campo a disfrutar de un día soleado, el segundo mapa es mucho mejor, ya que
el primero, aunque también proporciona esa información e incluso lo hace con más
detalle, puede resultar excesivamente complejo y difícil de entender si no se tienen
ciertos conocimientos. Es decir, el usuario es en última instancia, y por encima
del propio diseño cartográfico, quien hace que el mapa sea o no un elemento útil.
Figura 27.1: Dos formas distintas de mostrar una información a través de un mapa. En
función del propósito de este y el publico al que va dirigido, cada una de ellas podrá ser
adecuada o no. (Imágenes cortesía de AEMET)
Entre los elementos fundamentales que se han de elegir en función del propósito
del mapa se encuentran los correspondientes a la base matemática del mapa: escala
y proyección. La escala condicionará el tipo de estudios que será posible llevar a
cabo con el mapa, y establecerá el nivel de detalle que se desea comunicar a través
de este (siempre, obviamente, dentro de los limites de la escala a la que se hayan
recogido los datos). Por su parte, la proyección debe considerarse en función de sus
propiedades. Como ya vimos en el apartado 3.3.2, toda proyección implica algún
tipo de distorsión. Existen así proyecciones que mantienen las áreas, las distancias
o los ángulos. Según qué trabajo se espere con el mapa será más indicado hacer uso
de una u otra de ellas, ya que no es lo mismo un mapa catastral que una carta de
navegación, y la elección de una proyección inadecuada puede convertir un mapa
en una herramienta inútil para la tarea que se pretende realizar.
El otro aspecto importante a considerar es la forma en que transmitimos la infor-
mación a través del mapa, es decir, el tipo de mapa, como hemos visto en el ejemplo
propuesto. Dentro de este capítulo estudiaremos los tipos de mapas más habituales
y las características que los definen, así como la forma de crearlos correctamente.
674 Sistemas de Información Geográfica
con la capa temática, siendo más adecuado crear el mapa base a partir
de elementos individuales. Algunos de los más importantes son el canevás
(rejilla de coordenadas, especialmente necesaria a escalas pequeñas), la red
fluvial, el relieve, la vías de comunicación, las poblaciones y los nombres
geográficos. Todos ellos son buenos elementos de referencia para permitir
situar en base a ellos cualquier tipo de información temática.
La mayoría de las ideas de este y el próximo capítulo se aplican fundamental-
mente a la cartografía temática, siendo esta además la que con mayor frecuencia se
genera mediante el uso de un SIG. Una buena parte de lo visto en relación con las va-
riables visuales y sus propiedades tiene mayor relevancia a la hora de tratar con car-
tografía temática, ya que esos conceptos se aplican a la representación de variables y
fenómenos de tipo cuantitativo, y es la cartografía temática la que trabaja con ellos.
En la cartografía topográfica, los elementos geométricos que representamos son
en sí la información que pretendemos comunicar con el mapa, mientras que en la car-
tografía temática esa geometría es solo parte de la información, siendo la otra parte
la que se transmite a través del uso de variables visuales como, por ejemplo, el color.
De otro modo, la cartografía topográfica representa «cosas» que encontramos en el
terreno (un accidente geográfico, el curso de un río, el perfil de una costa), mientras
que la cartografía temática se centra más en la representación de valores y atributos.
La línea que representa una carretera en un mapa existe realmente en el terreno,
mientras que la que representa una curva de nivel no existe físicamente. Podemos
decir también que en lugar de en el qué, la cartografía temática se centra en el cómo.
Según el tipo de información que contenga, la cartografía temática se divide
en cuantitativa y cualitativa. Como veremos a continuación, el tipo de informa-
ción tiene gran repercusión a la hora de generar un mapa, ya que condiciona los
elementos que podemos usar para simbolizar dicha información.
estados de México, pero en cada uno de ellos se emplea una forma distinta de
simbolizar los valores de población. En el primero de ellos (caso a) se ha dividido la
población en cinco clases, cada una de las cuales se identifica mediante un símbolo.
Los símbolos han sido escogidos de forma arbitraria, y no existe una relación entre
ellos. Por su parte, el ejemplo b) también emplea símbolos y presenta igualmente
cinco clases, pero en este caso tienen todos las misma forma, y lo que varía es el
tamaño. Se puede establecer una relación entre los símbolos, ya que estos pueden
ordenarse en función de su tamaño.
Siendo la población una variable que también puede ordenarse, el caso b) es
claramente más adecuado, ya que nos proporciona la información visual de forma
más rápida e inmediata. No solo responde a la pregunta ¿qué población tiene esta
provincia?, sino también a otras como ¿dónde está la provincia más poblada? En el
caso a) podemos conocer también la población de una provincia y si esta es mayor
que la de otra, pero necesitamos para ello acudir a la leyenda, ya que no resulta
obvio que el símbolo cuadrado indique más población que el símbolo círculo. Por
su parte, el uso de un único símbolo y la variable visual tamaño es mucho más
intuitivo, y nos transmite esa información sin necesidad de consultar la leyenda
del mapa. Este hecho está directamente relacionado con las propiedades de las
variables visuales, que ya estudiamos en el capítulo 26.
Como argumenta [384], el primer mapa es una mapa que debemos leer, mientras
que el segundo es un mapa que podemos ver. Puesto que un mapa es un elemento
visual, es preferible que transmita de forma visual su información, y un mapa a
leer supone un desperdicio tanto de tiempo como de información misma.
Así pues, la selección de una forma de simbolización adecuada en función de la
naturaleza de la información es clave para lograr un mapa efectivo. En particular,
debe emplearse una variable visual que presente la propiedad (nivel de organización)
adecuado. Las propiedades asociativa y selectiva solo son de interés para informa-
El mapa y la comunicación cartográfica 677
ción cualitativa, mientras que, por ejemplo, el tamaño es la única variable visual con
la propiedad cuantitativa, y por tanto la única adecuada para representar razones.
Las siguientes son algunas ideas básicas a este respecto referidas a los distintos
tipos antes citados.
Nominal. La información de tipo nominal se representa adecuadamente
utilizando la variable visual forma. Lo que representamos responde princi-
palmente a la pregunta qué en lugar de a la pregunta cuánto, y está más
relacionado en cierto modo con la cartografía base que con la cartografía temá-
tica. El uso de símbolos, es decir, de la variable visual forma, para elementos
puntuales o lineales es una solución muy eficaz y habitual en este caso. Para el
caso de representar áreas puede emplearse la variable visual color y emplear
distintos tonos, o bien la textura (Figura 27.3). Como dijimos en su momento,
los tonos no presentan un orden (aunque citamos que pueden hacerlo si existe
alguna lógica en la sucesión de estos), pero este no es necesario para este tipo
de variables. La única propiedad que es de interés en este caso es la selectiva.
La información alfanumérica se trata a efectos de representación del mismo
modo que la de tipo nominal.
Puntos Líneas Polígonos
Tono
Textura
Valor
Información cuantitativa
Tamaño
Por último, es de interés señalar que, aunque los niveles de organización de las
variables visuales expresan a su vez unas posibilidades crecientes (es decir, con una
variable como el valor o el tamaño podemos expresar todo lo que el tono puede
transmitir, ya que están en un nivel superior), ello no implica necesariamente
que el uso de una variable de un nivel superior es mejor que otra de uno inferior.
Podemos ver esto claramente en la figura 27.5. En ella se ha utilizado la variable
valor para representar un mapa con información cualitativa. Puesto que el valor
tiene la propiedad ordenada, esto puede inducir a pensar que existe algún orden
en la variable representada (tipos de suelo en este caso). Además, y debido a que
El mapa y la comunicación cartográfica 679
el valor es disociativo, algunos elementos son más llamativos, lo que puede asociar
una falsa preponderancia a la clase a la que representan.
Razonamientos similares se pueden aplicar para el caso particular de capas con
variables de tipo verdadero/falso. En estas, deben emplearse colores de similares
características, de forma que no exista posibilidad de interpretarlos erróneamente y
asociar a alguna de las opciones la idea de ser «mejor» que la contraria. Transmitir
la información no es lo único que se busca, sino también hacerlo sin que aparezcan
posibles sesgos a la hora de interpretarla.
Zonas urbanas
Bosques
Pastos
Charcas
Zonas agrícolas
Figura 27.5: Uso incorrecto de la variable visual valor para representar información
cualitativa. Puede transmitirse una falsa sensación de que existe un orden en las clases
representadas.
Intervalos iguales
0-33.264
33.264 - 66.529
66.529 - 99.793
99.793 - 133.058
Intervalos naturales
0-1.360
1.748 - 7.105
9.137 - 20.528
133.058 - 133.058
Percentiles
0-80
85 - 198
199 - 458
475 - 133.058
Figura 27.6: Comparación entre distintos esquemas para la creación de intervalos de clase.
donde crece vegetación que es de ese color), seguido del marrón (zonas altas sin
vegetación) y después el blanco (zonas elevadas que se pueden asociar a nieve). La di-
visión en esos tramos se hace empleando el valor igualmente. Esta asociación de con-
ceptos tan básica (y no necesariamente muy real, pero sí conocida y compartida por
todo el mundo) permite crear un orden y capacitar a la variable visual color para em-
plearse a la hora de representar una variable de tipo intervalo como es la elevación.
La presencia del valor cero como punto que define dos mitades (elevaciones
sobre el nivel del mar o por debajo de este) hace que los datos de elevación tengan,
en lo que a su simbolización respecta, un esquema de tipo divergente. Este tipo de es-
quemas aparecen cuando la variable presenta algún valor crítico con un significado
El mapa y la comunicación cartográfica 683
Figura 27.7: Los intervalos pueden incorporar valores de importancia para una
determinada variable. En este caso, para la variable elevación resulta particularmente
relevante el valor cero, que delimita el comienzo de las clases representadas en azul.
así puede aportar mucho valor a tus mapas si la empleas correctamente junto a
las propias funcionalidades del SIG que estés utilizando.
Los conceptos que deben manejarse a la hora de elegir las características de los
elementos del mapa y su emplazamiento derivan de la percepción visual, disciplina
que ya vimos en el capítulo anterior. A continuación tienes algunas ideas adicionales
sobre percepción visual que deben aplicarse a la composición de mapas. Si deseas
ampliar estos conceptos, la referencia fundamental sobre percepción visual desde
el punto de vista del arte es [388].
El documento cartográfico tiene dos centros. Un centro geométrico y uno
óptico. Este último se sitúa por encima del geométrico, aproximadamente
a un 5% de la altura total del documento. Los elementos del mapa se deben
disponer alrededor del centro óptico.
Los elementos en la parte superior del mapa tienen una mayor importancia, así
como los situados en la parte izquierda. Es en estas zonas donde deben situarse
688 Sistemas de Información Geográfica
los elementos más importantes sobre los que se quiera centrar la atención.
La atención del lector del mapa va desde la esquina superior izquierda hasta
la inferior derecha, pasando por el centro óptico. Los elementos importantes
deben situarse en esta línea, para que su posición se corresponda con los
movimientos naturales de la vista.
Debe tratarse de crear un mapa sea visualmente equilibrado. El equilibrio
visual es el resultado del peso que cada elemento tiene y su posición, así
como su orientación. Estos pesos deben repartirse adecuadamente por todo
el lienzo del mapa. El peso de un elemento depende de múltiples factores,
entre ellos los siguientes:
• Posición. Los elementos tiene más peso en la derecha que en la izquier-
da, y más en la parte superior que en la inferior. El peso aumenta al
aumentar la distancia al centro del documento.
• Tamaño. Mayor tamaño implica más peso.
• Color. Los colores brillantes tienen más peso que los oscuros. El tono
rojo tiene más peso que el azul.
• Aislamiento. Los elementos aislados tienen más peso que aquellos ro-
deados por otros.
• Forma. Las formas regulares tienen más peso que las irregulares. Cuanto
más compacta sea la forma, también tendrá más peso.
• Dirección. Algunos elementos pueden tener una dirección que «dirija»
la atención hacia otros, concediéndoles peso (por ejemplo, una flecha
que señale a un elemento, haciendo que llame más la atención),
Las ideas acerca de la composición y el equilibrio del mapa se han de aplicar
a todo el documento cartográfico (es decir, al que contiene todos los elementos
citados anteriormente), así como a la parte de este que representa la información
geográfica. Es importante seleccionar adecuadamente el área geográfica cubierta
para que la información relevante que se muestra acerca de esta conforme un
conjunto equilibrado y siga a su vez las indicaciones mencionadas.
Recordar, por último, que la composición del mapa implica una organización
horizontal (plana) de sus elementos, pero existe asimismo una organización ver-
tical. Esta viene definida por la jerarquía existente, sobre la cual ya se comentaron
algunas ideas en el apartado 26.5.2. Estas ideas deben aplicarse igualmente en la
composición del mapa, para conjuntamente lograr un documento equilibrado en
el que quede claro qué elementos son los de mayor importancia y pueda accederse
con facilidad a la información que contienen.
<100
1600
100-400
900
400-900
400
100
900-1600
escogerse un valor adecuado que equilibre la presentación de los puntos sobre el ma-
pa. Este valor se representará en la leyenda para su interpretación, habitualmente en
forma de texto, escribiendo por ejemplo, que «un punto equivale a 1000 habitantes».
La elección del tamaño del punto debe garantizar la buena visibilidad de este, al
tiempo que no debe ser excesivamente grande para que no ocupe demasiado espacio
y dificulte la visión de otros. Obviamente, el tamaño óptimo está en relación con
el valor unitario escogido, y ambos parámetros deben establecerse conjuntamente
para lograr la combinación más adecuada.
Por último, la posición del punto es de gran importancia para transmitir la in-
formación correcta y no dar lugar ambigüedades o incorporar errores conceptuales.
Si no disponemos de información adicional y solo tenemos el valor correspondiente
a una zona dada, los puntos se han de disponer de forma regular ocupando toda la
superficie de la zona. Si, por el contrario, sabemos algo más acerca de la distribu-
ción de la variable, debemos emplear esa información para emplazarlos de forma
más realista. Si, por ejemplo, la zona corresponde a una provincia y sabemos la
localización de la principal ciudad dentro de ella, es más lógico situar más puntos
cerca del emplazamiento de esa ciudad que en otras partes de la provincia, ya que
una mayor parte de la población estará allí.
Otro aspecto a considerar es el significado de la variable que se representa y la
posibilidad o no de que aparezca en las distintas localizaciones de los puntos. Si la
variable es, por ejemplo, el numero de ejemplares avistados de un determinado ave
acuática, situar los puntos sobre zonas urbanas o de bosque no tiene sentido, ya
que dan a entender que ahí hay presencia de esa especie (tantos ejemplares como
los puntos en cuestión indiquen), algo que es falso.
En los dos casos anteriores va a resultar necesario «mover» los puntos a su
localización más correcta, algo que, habitualmente, no resulta posible con los
mecanismos automatizados de que dispone un SIG. El chequeo del mapa creado
resulta, por tanto, imprescindible para comprobar que existen puntos en posiciones
erróneas. El uso de herramientas externas tales como programas de diseño gráfico,
según vimos en el capítulo 25, es una solución para retocar los mapas creados y
obtener una distribución de los puntos más correcta.
La imagen 27.11 muestra un ejemplo de un mapa de puntos.
acerca de los distintos métodos de interpolación. Por esta razón, dentro de un SIG el
procedimiento a seguir será calcular una capa ráster a partir de valores puntuales, y
después crear las isolíneas a partir de esta capa según lo visto en el apartado 17.3, no
siguiendo la metodología clásica de creación de estas a pesar de que los fundamentos
teóricos subyacentes (las técnicas de interpolación) son los mismos en ambos casos.
Algo que si debe citarse en lo que respecta a la creación de las isolíneas, ya
sea con o sin la ayuda del SIG, es la diferencia entre las denominadas isaritmas
o líneas isométricas y las isopletas. Las isartimas expresan una variable que existe
como tal en aquellos puntos por los que pasa la isolínea, como por ejemplo en el
caso de la elevación. Una curva de nivel de 100 metros pasa por un punto en el
que la elevación es exactamente igual a 100. Con otras variables, sin embargo, el
valor no tiene que existir como tal en esos puntos, y la isolínea es solo una forma de
representar el comportamiento de la variable. Así sucede, por ejemplo, en valores
que no ocurren en puntos, sino por unidad de área, y que al convertir en isolíneas
dan lugar a las citadas isopletas.
Imaginemos, por ejemplo, el caso de la densidad de población. Podemos crear
unas isolíneas de densidad de población, pero no podemos medir esta en un punto.
Debemos contar los habitantes en un área dada y después dividir entre dicho área.
El valor obtenido debemos después asignarlo a un punto y con el conjunto de
puntos así obtenidos ya podremos crear las isolínea. La diferencia en este caso es
que esa unidad de área debe resumirse en un punto.
En caso de que dentro de la unidad exista una distribución homogénea, pode-
mos asignar el valor del área a su centro geométrico, pero de no ser así es necesario
buscar otra localización en base a la información adicional de que dispongamos. Por
ello, los mapas de isopletas presentan mayor incertidumbre que los de isaritmas,
especialmente si las unidades de área empleadas son grandes. Aunque a efectos de
su representación (que es principalmente lo que estamos tratando en este capítulo)
no existen diferencias, los aspectos que deben tenerse en cuenta a la hora de su
uso y creación son distintos y deben reseñarse.
A la hora de simbolizar las isolíneas, y con independencia de su tipo, la variable
visual tamaño es la única que suele emplearse, en particular para señalar aquellas
líneas que representan un valor múltiplo de una determinada cantidad y hacer
así más fácil la lectura del mapa. Estas líneas son lo que se conoce como curvas
directrices. Por ejemplo, en un mapa topográfico con curvas de nivel con una equi-
distancia de 100 metros, es habitual establecer curvas directrices cada 500 metros.
Todas aquellas curvas cuyo valor asociado sea múltiplo de 500 se representan con
un trazo más grueso para que puedan localizarse rápidamente.
El uso del color o la textura en las líneas no es habitual como simbología, ya que
simbolizar los valores de cada una través de las variables visuales resulta en este
caso menos práctico. Lo normal es etiquetar cada una de ellas con el valor concreto
(con texto sobre la línea), y aprovechar el hecho de que dos líneas consecutivas están
El mapa y la comunicación cartográfica 695
Figura 27.12: Mapa de isolíneas. Se ha empleado para su representación tanto las líneas
como el coloreado de las franjas entre estas.
se utilizan limites administrativos o de gestión como áreas. Cada área conforma una
unidad espacial, y el valor asociado a ella resume la variable dentro de dicho área.
Precisamente por esta generalización que se da al representar mediante un
único valor la variable dentro de cada unidad, los mapas de coropletas adolecen
de ciertos inconvenientes, siendo los dos siguientes los principales:
Sensación de cambio brusco en los límites entre áreas. Al existir una
transición abrupta entre unidades, un mapa de coropletas puede transmitir
la idea de que en esa frontera los valores de la variable cambian bruscamente,
ocultando la continuidad de la variable en caso de existir esta.
Homogeneidad dentro de cada área. La variación dentro de cada área
no se recoge, con lo que se pierde una parte de la información. El uso de
unidades menores soluciona en parte este problema, aunque puede hacer
el mapa más complejo de interpretar y puede desvirtuar la información
(recordemos aquí todo lo que vimos en el capítulo 10 y los conceptos tales
como el Problema de la Unidad de Área Modificable). Al mismo tiempo, las
unidades pueden tener su significado particular, como por ejemplo tratarse
de divisiones administrativas, con lo que el uso de otras distintas altera la
información que se pretende transmitir.
Igualmente, debe considerarse que, en el caso de valores no normalizados, las
coropletas pueden transmitir una información equivocada. Por ejemplo, si una varia-
ble representa un conteo, tal y como la población de un conjunto de estados, el uso de
coropletas no tiene en cuenta la superficie de cada una de las áreas representadas. Un
mismo valor en dos unidades, una de ellas con una superficie mucho mayor a la otra,
puede dar la sensación de que poblacionalmente ambas zonas son similares, mientras
que puede ser que una tenga una gran densidad de población y la otra esté práctica-
mente despoblada. El valor que simbolizamos sí está relacionado con el área (a mayor
área, encontraremos más habitantes), y sería más adecuado representar esa densi-
dad de población, ya que resulta menos proclive a inducir una interpretación errónea.
En general, el uso de coropletas es correcto cuando la variable ha sido normalizada,
por ejemplo dividiendo el valor numérico de cada unidad entre la superficie de esta.
En los mapas de coropletas cobra especial importancia la correcta división de
clases según hemos detallado dentro de este mismo capítulo. De entre las variables
visuales, el color es la usada en la gran mayoría de casos, en particular utilizando
su componente valor, y las propias características de las coropletas, en particular
las desventajas que ya hemos mencionado, han de considerarse a la hora establecer
cómo hacemos uso de esta variable visual para la simbolización de cada unidad.
Así, debemos tener en cuenta que a la hora de distinguir dos colores con el
mismo tono y distinto valor, si estos son muy semejantes solo resulta posible dife-
renciarlos cuando se sitúan el uno junto al otro, pero no cuando están separados y
median entre ellos otros colores distintos. Aunque la variable con la que trabajemos
sea continua, el mapa de coropletas no ha de exhibir dicha continuidad, por lo
que no podemos contar con ella para elaborar la rampa de valores correspondiente.
El mapa y la comunicación cartográfica 697
Mientras que en un mapa de isolíneas sabemos que los distintos colores van a
aparecer de forma ordenada (en el mismo orden en el que se muestran en la leyenda),
en el mapa de coropletas una unidad puede tener a su lado otra con un valor muy
distinto sin que entre ellas exista una de valor intermedio, pudiendo producirse un
salto de varias clases. Esto tiene como consecuencia que el número de clases que
podemos emplear es menor que al trabajar con isolíneas, ya que esta separación
espacial que puede aparecer en las distintas clases va a dificultar su diferenciación.
De igual modo el uso del tono queda más restringido, al poder dar lugar a
situaciones ambiguas. Por ejemplo, si miramos la leyenda del mapa de la figura 27.7
veremos que hay dos clases con un tono blanco. Por una parte, los valores situados
cerca del cero (al nivel del mar). Por otro, los situados en la parte superior de la
escala, es decir, los que corresponden a mayor elevación. Esto no da lugar a ambi-
güedad, ya que el primer caso siempre aparecerá cerca de tonos azules, mientras que
el segundo se situará cerca de los marrones. No puede ser de otro modo, ya que equi-
valdría a que las curvas de nivel pudieran cortarse entre sí, lo cual sabemos que no es
posible. El contexto de los colores circundantes sirve para eliminar la ambigüedad.
En el mapa de coropletas, al no suceder necesariamente así, la ambigüedad perma-
necería y haría imposible discernir el significado de la simbología. En el caso de las
isocoropletas, en la que la contigüidad espacial sí implica también contigüidad de
clases, sí pueden utilizarse este tipo de esquemas, como ya vimos en la figura 27.12.
Por todo lo anterior, el uso de la componente valor es preferible frente al uso
del tono a la hora de crear un mapa de coropletas para representar información
cuantitativa.
Figura 27.13: Mapa de flujo de Charles Joseph Minard sobre la campaña de Napoleón
en Rusia.
27.7. Resumen
Hemos visto en este capítulo cómo un mapa constituye una forma de comu-
nicación visual, y cómo en esa comunicación existen una serie de factores a tener
en cuenta para que la transmisión de la información entre emisor y receptor sea
óptima. De especial relevancia en este sentido es prestar atención a este último
y tener siempre en cuenta el propósito del mapa que creamos.
Distinguimos dos tipos de cartografía: la cartografía de base y la temática. Esta
última es la que crearemos con más frecuencia en un SIG. Las formas de cartografía
temática están muy relacionadas con las características de la variable. Para el caso
de variables cuantitativas, es importante agrupar adecuadamente los distintos
valores en clases. Existen diversas formas de delimitar los intervalos correspon-
dientes, siendo las más habituales el uso de intervalos iguales, intervalos naturales
o intervalos basados en la media y la desviación típica de los valores en cuestión.
Dentro de los tipos de mapas temáticos más importantes encontramos los
mapas de puntos, de símbolos proporcionales, de isolíneas y de coropletas, cada
uno de ellos con sus características particulares. Los mapas de isolíneas son espe-
cialmente indicados para la representación de variables continuas, mientras que
por su parte las variables de tipo razones se representan de forma especialmente
adecuada mediante los mapas de puntos.
A la hora de componer un mapa existen diversos elementos que deben aña-
dirse para facilitar su interpretación. Además de conocer la función de cada uno,
es importante saber cómo situar estos sobre el lienzo del mapa, aprovechando
correctamente el espacio e integrándolos adecuadamente.
Capítulo 28
Ahora que ya conocemos la teoría del diseño cartográfico y sus ideas principales, es
momento de aplicar esto a los SIG y ver en qué medida un SIG nos permite aplicar esas ideas.
El objetivo de este capítulo es facilitar la aplicación de todo lo visto en los anteriores, para
mejorar así nuestro trabajo con un SIG. Se trata de un capítulo eminentemente práctico en
el que veremos la visualización no desde un punto de vista conceptual, sino directamente
sobre el SIG, y aprenderemos cómo usar este para lograr crear mejores mapas y, en general,
mejores visualizaciones de todo tipo de datos susceptibles de ser incorporados en un SIG.
28.1. Introducción
El SIG es nuestro útil para visualizar la información geográfica y, como hemos
visto, un útil muy potente y con numerosas posibilidades. Conocemos ya sus
capacidades y limitaciones, pero no sabemos todavía cómo debemos trabajar con
estas a la hora de crear una representación visual y, sobre todo, desconocemos la
forma en que las particularidades de la información geográfica dentro de un SIG
afectan a su visualización.
El concepto de capa, que resulta vital para otras tareas tales como el análisis,
va a tener de igual modo una influencia directa en la creación de representaciones a
partir de los datos de que disponemos, ya que la interpretación de estos datos está
condicionada inevitablemente al modelo de datos empleado. Por ello, veremos en
este capítulo los conceptos que ya conocemos de otros anteriores, pero aplicados
al caso particular de aplicarlos dentro de un SIG, empleando las herramientas que
este habitualmente incluye para esa tarea.
Puesto que conocemos ya un buen conjunto de operaciones sobre los datos
espaciales, y estas operaciones forman parte integrante del SIG al igual que la vi-
sualización, estudiaremos asimismo cómo aprovechar algunas de estas operaciones
de cara a la visualización de información geográfica. Es aquí donde reside una de
las grandes virtudes del SIG, en que sus distintas capacidades están conectadas
y son accesibles desde un mismo entorno. Hacer más patente esa relación entre
ellas y ampliar así las posibilidades que un mismo juego de datos ofrece para ser
representado es uno de los objetivos de este capítulo.
En conjunto, las capacidades que ofrece un SIG, incluso si en muchos casos no al-
canzan la funcionalidad necesaria para satisfacer al cartógrafo profesional, permiten
702 Sistemas de Información Geográfica
28.2.1. Etiquetado
simple, pero compleja desde el punto de su implementación1 . Aun así, está presente
en los SIG en mayor o menor medida, y en el caso de puntos, los resultados que se
obtienen son de una calidad aceptable. El paso a otro tipo de geometrías, donde es
necesario considerar otra serie de parámetros, hace aparecer unas circunstancias
más difíciles de tratar, y la labor directa del cartógrafo es mucho más necesaria.
En el caso de capas de líneas, la posición de las etiquetas debe seguir el trazado
de las líneas y su orientación, existiendo, no obstante, diversas opciones en lo
que respecta a la posición con respecto a la propia línea. La línea ya no es un
objeto puntual y no existe por tanto una coordenada única que utilizar. El punto
medio de la línea es la solución más inmediata como punto de referencia, pero
no necesariamente la mejor. Pueden existir otras zonas a lo largo de la línea que
resulten más relevantes y en las que sea más adecuado situar la etiqueta. En el
caso de líneas muy largas, es conveniente repetir el nombre varias veces a lo largo
de esta, para que no sea necesario seguirla hasta encontrar su nombre.
En el caso de líneas que se entrecruzan (calles, ríos, etc.), es importante evitar
las ambigüedades. No es conveniente etiquetar una línea siempre que exista un
cruce, pero un emplazamiento adecuado puede resultar suficiente para aclarar
a qué línea hace referencia una etiqueta. Esto puede verse en la figura 28.1. En
ambos casos, la etiqueta hace referencia al cauce que procede de la parte superior,
que es el principal de los dos que confluyen, y por tanto también el que da nombre
al segmento posterior al cruce. En el caso a), la mayor similitud en las direcciones
puede inducir sin embargo a pensar que el nombre hace referencia al cauce después
de la intersección y al segmento horizontal antes de esta. Si el etiquetado de
este segmento horizontal, que es un cauce de nombre distinto, no se encuentra
suficientemente cerca del cruce, puede entonces pensarse que la etiqueta hace
referencia a él también lo cual no es adecuado. Un emplazamiento tal como el
mostrado en el caso b) aclara esta situación de forma elegante.
Para el caso particular de las isolíneas, se recomienda situar la etiqueta sobre la
propia línea, ya que facilita su lectura, especialmente en el caso de que aparezcan
varias isolíneas separadas por poca distancia, como puede verse en la figura 28.2.
Además, deben situarse las etiquetas de las isolíneas contiguas de tal forma que
puedan leerse conjuntamente, para que sea sencillo interpretarlas en conjunto y
apreciar sin dificultad la equidistancia y la dirección en la que los valores aumentan
o disminuyen.
Si la línea presenta cambios de dirección bruscos, es difícil hacer que la etiqueta
siga la línea sin tener un aspecto «roto». Suavizar las líneas es una opción en este
caso, al menos para usarlas como líneas base sobre las que situar las etiquetas.
En el caso de polígonos, existe igualmente el problema de seleccionar un punto
para emplazar la etiqueta. El centroide del polígono es la opción más inmediata,
1
Para el lector con curiosidad acerca de los algoritmos de etiquetado, baste citar que, salvo
en el caso de una solución trivial, se trata de un problema de tipo NP–Hard.
706 Sistemas de Información Geográfica
a) b)
Figura 28.1: La posición de la etiqueta sobre una línea en un cruce puede dar lugar a
ambigüedades (a) o a situaciones bien definidas (b).
20
20 0
0
0
30
30
10 0
0
100
a) b)
Figura 28.2: Etiquetado de isolíneas. Deben situarse las etiquetas cercanas entre sí y
sobre la línea, como en el ejemplo b)
relevancia en este caso, y son a los que debemos acudir. He aquí algunos de ellos.
El uso de las variables visuales que conocemos es limitado en el caso de las
etiquetas y, salvo el tamaño, no suelen emplearse para diferenciar unas de
otras o darles más importancia.
El uso del tono o el valor debe llevarse a cabo con precaución. La legibilidad
de la etiqueta, no obstante, está en relación con el fondo, ya que el color de
este puede dificultar su lectura, y en esta situación es a veces necesario usar
uno u otro tono para garantizar esa legibilidad. La etiqueta siempre está
en un primer plano, por lo que el resto del mapa bajo ella y en su entorno
forma parte del fondo. Como ya vimos, un adecuado contraste entre fondo y
figura es importante, por lo que variar el color de una etiqueta puede a veces
ser necesario para que esta pueda leerse correctamente.
Algunos elementos se etiquetan sistemáticamente con colores establecidos, co-
mo en el caso de los ríos, del mismo color azul que la propia geometría de estos.
El tamaño es la forma principal de jerarquizar las etiquetas y darles más
importancia. Se puede aplicar directamente sobre el tamaño de la fuente,
aunque también es posible hacerlo sobre el grosor (fuente normal o negrita).
El uso de mayúsculas o minúsculas sirve igualmente para conceder más
importancia a unas u otras etiquetas.
La separación entre caracteres se puede modificar para hacer que la etiqueta
cubra un espacio mayor a lo largo de un objeto lineal, eliminando en ocasiones
la necesidad de un etiquetado múltiple de esta. Un espaciado mayor también
aporta mayor énfasis a la etiqueta. También se puede optar por un espaciado
menor en etiquetas menos importantes, o en zonas con alta densidad, para
disminuir el espacio que estas ocupan y evitar solapes.
El uso de fuentes artísticas o decorativas no es recomendable. Se deben
utilizar fuentes sencillas y que sean lo más legibles posible.
La información necesaria para realizar todos estos ajustes a las etiquetas debe
estar contenida en la tabla de atributos de la capa. Así, podemos incluir en esta
campos que indiquen el ángulo en el que se escribe la etiqueta, el tamaño a utilizar
o la separación de carácter, entre otras características. Incluso la propia posición
puede especificarse de esta forma. En caso de existir estos valores, el SIG los usará
en lugar de aquellos que resultarían de la aplicación de los algoritmos de etiquetado
automático de que disponga, entendiendo que el ajuste manual es de mejor calidad.
Dado que este tipo de configuración es habitual si se desea crear un mapa de calidad,
algunos SIG permiten la incorporación de capas de etiquetado, que contienen toda
la información necesaria para el establecimiento de etiquetas, de forma que estas
se incorporan al mapa por separado y no a partir de los objetos a los que hacen
referencia y sus atributos. Esta manera de proceder, no obstante, es más laboriosa.
En resumen, la tarea de etiquetar un mapa es compleja y normalmente va a
requerir una cierta cantidad de trabajo manual por parte del creador del mapa. Los
SIG disponen de herramientas para automatizar una parte de este trabajo, aunque
708 Sistemas de Información Geográfica
Si a cada uno de los polígonos cuadrados de los que se compone una capa ráster
le asignamos un color, podemos considerar que el mapa resultante es equivalente
a un mapa de coropletas, aunque con tres características peculiares: las unidades
tienen un mismo tamaño todas ellas, este tamaño es normalmente muy pequeño
y tiene dimensiones muy reducidas en la representación, y las unidades están
situadas de forma regular en una malla. Estas características hacen que algunos
de los inconvenientes de los mapas de coropletas no se presenten, y permiten un
uso distinto de las variables visuales.
Por ejemplo, el uso del tono como variable ordenada, que ya vimos que en ciertos
casos sí resulta adecuado, se puede dar en las capas ráster. Como ya se mencionó
al desarrollar las variables visuales, puedes encontrar abundantes ejemplos de
representaciones así en los capítulos de la parte dedicada a procesos dentro de este
libro. La regularidad de la malla de celdas, junto con la autocorrelación espacial
y la continuidad de una variable a representar, hacen que cada celda esté rodeada
de otras de valores similares, lo que aporta también una continuidad visual que
puede aprovecharse para emplear esquemas ordenados basados en el tono.
Tanto si se usa el valor como si se usa el tono, otra de las consecuencias de la es-
tructura de una capa ráster, y en particular del pequeño tamaño de sus celdas es el he-
cho de que resulta de interés aumentar el número de clases en que dividimos los valo-
res de la variable para asignarles el correspondiente valor o tono como variable visual.
La mayor resolución espacial con la que trabajamos se puede acompañar también de
una mayor resolución cromática para obtener representaciones de mayor riqueza.
Mencionábamos en el apartado 27.4.1 que no se recomienda un número de clases
mayor de 7 u 8, ya que haría complejo el identificar cada una de ellas en la leyenda
y conocer la cantidad exacta que se representa. Ello no significa, sin embargo, que
el ojo humano no pueda distinguir más de 8 valores distintos de un tono dado. Si
extendemos el número de clases, podemos lograr un efecto de transición suave entre
los colores de las distintas celdas y eso, aunque no facilite la identificación de un color
concreto con su valor asociado de la variable representado, crea una representación
mucho más informativa. Puede verse esto claramente en la figura 28.3
Las representaciones de la parte derecha de la figura, con un total de 255 clases,
dan más detalle sobre la distribución de la variable a lo largo del mapa que las de
la parte izquierda, con 8 clases. Saber en qué rango de valores se encuentra una
zona dada del mapa puede resultar más difícil e impreciso, pero a cambio tenemos
más detalle. En un mapa de coropletas, con unidades grandes bien diferenciadas,
usar más clases no aporta más detalle sobre la distribución de la variable, ya que
falta esa suavidad en las transiciones entre unidades. En una capa ráster, por el
contrario, la ganancia es notable.
La segunda representación de la figura, correspondiente a una capa de relieve
sombreado, muestra de forma más clara lo anterior. El valor recogido en esta capa
representa el ángulo de incidencia de la fuente de iluminación, lo que se traduce
en un color más claro o más oscuro, tal y como correspondería a una mayor o
710 Sistemas de Información Geográfica
Figura 28.3: Representación de dos capas ráster con valores de elevación (a) y ángulo
de iluminación (b) mediante 255 (izquierda) y 8 (derecha) clases.
Figura 28.4: Añadir capas adicionales que complementen a aquella que resulta de interés
nos ayuda a interpretar mejor esta y a lograr una representación más eficaz.
La capa que representa la cuenca vertiente a un punto, y que contiene un solo po-
lígono, resulta mucho más útil visualmente si la acompañamos de elementos básicos
como el relieve y los cauces principales. La imagen de la derecha es autoexplicativa
y se ve claramente gracias al relieve que el polígono delimita la cuenca. En la de
la izquierda esa información no puede deducirse únicamente de la capa de interés.
Aunque sencillo de llevar a cabo en lo que a manejo del SIG respecta, combinar
capas es un proceso que también debe realizarse con conocimiento y en el que, si se
realiza correctamente, las diferencias pueden ser notables. No solo se trata de dar
espacio dentro del mapa a toda la información que esas capas contienen, sino que
exista una sinergia entre ellas en la medida de lo posible, para que se complementen
mutuamente como partes de un conjunto. Veremos en este apartado algunas ideas
a tener en cuenta en este sentido.
712 Sistemas de Información Geográfica
Figura 28.5: Variar el orden de las capas puede suponer un cambio radical en la
representación final obtenida. Todas las imágenes proceden del mismo conjunto de capas,
pero las representaciones son muy distintas.
a) b) c)
Figura 28.6: Representación erronea (a) y correcta (b) de capas al combinar una de carrete-
ras (en marrón) y otra de red de drenaje (en azul). La inclusión de un elemento que simbolice
el cruce (c) supone, no obstante, una mejor solución desde el punto de vista cartográfico.
a partir de cinco capas de datos, una para cada continente, asignando colores en
función de la población de cada país y con un total de 10 intervalos. Aunque la
representación no revela ningún problema tal como la línea de sutura entre las capas
ráster del ejemplo a), es incorrecta, ya que países con poblaciones muy distintas se
representan con un mismo color. Así, Alemania, el país más poblado del contiene
europeo, y China, el más poblado de Asia, tienen el mismo color a pesar de este
último tiene más de quince veces más habitantes que el primero. Una vez más, los
intervalos empleados no son coherentes entre sí. En la representación de la derecha
de la figura puede observarse el resultado tras haber ajustado convenientemente los
parámetros de representación del conjunto de capas. Nótese que, pese a ser correcto
desde este punto de vista, el mapa es poco informativo. La división en intervalos
iguales que se ha empleado no resulta una buena opción en este caso debido a la
presencia de unos pocos países con mucha más población que el resto. El uso de
intervalos naturales o percentiles habría dado lugar a una representación más útil.
ya que incluso los elementos de menor tamaño del mapa van a estar dibujados con
una serie puntos de menor tamaño que permiten lograr una nitidez muy elevada.
A la hora de preparar cartografía impresa, la resolución no es un problema, ya
que las capacidades de que se dispone superan a las necesidades que el cartógrafo
puede tener. En la pantalla, sin embargo, algunos elementos pueden no aparecer
con suficiente claridad y, aunque en papel cumplan su función correctamente, es
conveniente sustituirlos por otros más adecuados cuando no se trabaja sobre un
medio impreso. Los siguientes son algunos de los elementos que deben evitarse o, al
menos, emplearse de manera distinta a la hora de crear representaciones en pantalla.
Fuentes con ornamentos tales como sombreados. Si son de pequeño tamaño, el
sombreado no puede pintarse con suficiente nitidez y perjudica la legibilidad
del texto.
Fuentes con serifas. Las serifas (Figura 28.8) están pensadas para hacer más
cómoda la lectura del texto impreso cuando este tiene una longitud consi-
derable tal como en un libro, y consisten en pequeños adornos generalmente
situados al final de las líneas. Por su pequeño tamaño, no se representan con su-
ficiente definición en la pantalla, lo que causa pérdida de legibilidad. Por ello,
se recomienda el uso de fuentes sin serifas en documentos pensados para visua-
lizarse en pantalla, tales como paginas Web o como un mapa dentro de un SIG.
Rellenos con tramas de paso muy fino. Si las líneas de un tramado están
muy juntas, la baja resolución de la pantalla puede ser insuficiente para
separarlas, haciendo difícil para el observador reconocerlas.
Punteados. Al igual que en el caso anterior, si el punteado no tiene un paso
suficiente, puede no resultar evidente la discontinuidad de la linea, creándose
una representación ambigua.
imagen de un mapa en la pantalla (algo que sucede cada vez que ajustamos el
encuadre mediante esas herramientas interactivas), el SIG ha de realizar un gran
número de cálculos correspondientes a operaciones como las siguientes:
Remuestreo de las imágenes.
Asignación de colores o patrones a los distintos elementos (geometrías en
capas vectoriales o celdas en capas ráster) en función de los valores asociados
a estos.
Dibujado de geometrías.
En función de la complejidad y el tamaño de las capas que estemos represen-
tando, así como del número de estas, generar esa representación puede suponer un
volumen muy elevado de operaciones, lo cual hará poco fluido el trabajo en el SIG,
llegando incluso a hacer inoperativa la propia interactividad del programa en un
caso extremo. Cuando esto sucede, es necesario sacrificar algo de precisión y rigor
cartográfico en beneficio del rendimiento, especialmente cuando la falta de ren-
dimiento y la lentitud del sistema nos dificulten la realización de otras operaciones
tales como, por ejemplo, el análisis de esas mismas capas que representamos, o
incluso la propia navegación.
Trabajar con capas de menor detalle —por ejemplo, capas ráster de menor
resolución o capas vectoriales con líneas simplificadas (véase 18.7)— es una solución
a este problema, aunque no necesariamente excluye la posibilidad de trabajar con
las capas originales. Un planteamiento multi–escalar en el que, según la escala,
se visualicen unas u otras capas, es una solución frecuente a esta problemática.
Vimos estas ideas en el apartado 3.5.2, donde presentamos el concepto de pirámide
como recurso empleado en estos casos para el trabajo con capas ráster.
También se puede aumentar la velocidad de dibujado utilizando colores lisos
en lugar de tramas, y evitando los textos de gran tamaño o los símbolos complejos
que provengan de imágenes muy detalladas y de gran tamaño.
Por último, el hecho de que la escala de la representación pueda variar según
la voluntad del usuario puede causar problemas con algunos de sus elementos tales
como símbolos o etiquetas de texto. Si todos los elementos del mapa se escalan
proporcionalmente, una reducción importante de escala disminuirá el tamaño del
texto hasta hacerlo ilegible. Por el contrario, si aumentamos la escala el tamaño
puede ser excesivo. La figura 28.9 muestra este hecho.
El mismo problema sucede en el caso de emplear símbolos. Si, por ejemplo,
tenemos una capa de puntos con la localización de bocas de incendios y represen-
tamos cada uno con un pequeño dibujo de una de ellas, al aumentar el tamaño de
cada icono se perderá definición, mientras que al disminuirlo la pantalla no tiene
resolución suficiente para dibujarlo correctamente y no se identificará su forma.
En general, el empleo de símbolos puntuales de este tipo se desaconseja a la hora
de representar cartografía en pantalla.
Una solución a esto es especificar un tamaño absoluto de estos elementos que
no varíe con la escala. Es decir, que un símbolo o una etiqueta de texto tengan
La visualización en términos SIG 719
a) b)
Figura 28.9: El cambio de escala varía el tamaño de los símbolos tales como las etiquetas,
haciéndolos demasiado pequeños (a) o demasiado grandes (b)
siempre el mismo tamaño en pantalla y ocupen los mismos píxeles. A escalas bajas,
sin embargo, este método puede dar lugar a representaciones saturadas, como
se observa en la figura 28.10. Este problema es más notable si se tiene en cuenta
que en pantalla se emplean generalmente tamaños de letra más grandes que en
un mapa impreso, por lo que se debe reducir la cantidad de texto mostrado para
evitar una densidad de etiquetas demasiado elevada.
Las particularidades que hemos visto en esta sección se refieren a la represen-
tación en la pantalla de un ordenador de sobremesa o portátil, pero, como vimos
en el capítulo 24.1, los SIG sobre dispositivos móviles tienen a su vez sus propias
características en lo que a dispositivos de representación respecta. Por ello, y según
los casos, todo lo visto en este apartado debe considerarse de modo específico en
estos casos, añadiendo los condicionantes que este hecho puede implicar en las
distintas funciones de representación.
Figura 28.10: Representación saturada al representar elementos con tamaño fijo a una
escala baja.
talmente una herramienta 2D, las aplicaciones con capacidades 3D van ganando
relevancia al tiempo que incorporan cada vez más funcionalidades que las acercan a
las del SIG de escritorio completo. Además de su mejor capacidad para incorporar
de forma realista los elementos geográficos (que son tridimensionales, así como los
fenómenos que los originan), una de las razones indudables del éxito y la populari-
dad del SIG 3D es su gran atractivo visual. La tercera dimensión hace más sencillo
interpretar buena parte de la información representada, ya que permite mostrarla
de un modo más asequible y fácil de entender, especialmente para el observador no
especializado. Frente al mapa impreso o la representación bidimensional en panta-
lla, la representación en tres dimensiones resulta mucho más intuitiva y «real». Al
ser más natural y cercano a la realidad que se representa, un mapa tridimensional
se percibe menos como un elemento simbólico y más como una realidad.
Por todo ello, porque el factor visual es de gran relevancia en los SIG 3D, una
adecuada visualización de la información geográfica tiene mucha importancia para
poder aprovechar al máximo todas sus posibilidades. Las siguientes son algunas de
las ideas que deben considerarse al trabajar con representaciones tridimensionales,
junto, por supuesto, todas las que ya hemos detallado para las representaciones
2D habituales:
Existencia de distintas formas de perspectiva. Existen distintas for-
mas de perspectiva para lograr trasladar la realidad tridimensional a la
superficie plana del papel o la pantalla. Estas alteran la percepción de las
distintos elementos de la imagen, y en algunas aplicaciones es posible escoger
la que se desea, con lo cual aparece un nuevo parámetro que modifica la
representación y debe ser ajustado convenientemente.
Importancia de la posición del observador y los ángulos de visión.
En un mapa plano no existe como tal el concepto de posición del observa-
La visualización en términos SIG 721
Figura 28.12: La dimensión vertical puede emplearse como variable visual para visualizar
la componente temática de la información geográfica.
Figura 28.13: La dimensión vertical puede utilizarse también para simbolizar capas
ráster con variables distintas a la elevación.
Figura 28.14: La exageración del relieve permite hacer más evidente la configuración
de este.
Puede verse en lo anterior la necesidad de extender las ideas del diseño car-
tográfico para considerar las peculiaridades de las vistas 3D, ya que si no se tienen
estas en cuenta, los conceptos de la cartografía clásica, aunque imprescindibles
igualmente en este caso, resultan no obstante insuficientes. Más información sobre
principios de diseño cartográfico para vistas 3D puede encontrarse en [390].
La visualización en términos SIG 725
Mientras que un mapa impreso contiene una información estática que no varía y
que representa el estado de unas determinadas variables en un instante dado, dentro
de un SIG podemos crear representaciones que vayan variando para mostrarnos
la evolución de esas variables. En un SIG es posible no solo visualizar una realidad,
sino también el cambio que se produce en esa realidad. Esta visualización dinámica
supone una herramienta de gran valor, especialmente para explorar la relación
entre distintas variables y cómo el cambio de una de ellas afecta a las restantes.
La visualización dinámica se obtiene mediante una animación, la cual se com-
pone de una serie de escenas, del mismo modo que una película se compone de
una serie de fotogramas. El mapa clásico representa una única de esas escenas,
por lo que las nuevas posibilidades que una animación aporta con respecto a este
son notables. Aunque de manera distinta a la de una vista tridimensional, una
animación aporta también al mapa una dimensión adicional.
El cambio que una animación muestra no ha de darse necesariamente a lo largo
del tiempo, sino que puede ser en el espacio o a medida que varía cualquier otra varia-
ble. Por ejemplo, una animación puede consistir en un trayecto a lo largo del cual se
desplaza el observador y mostrar un «vuelo» entre dos puntos y cómo varía la reali-
dad representada a medida que nos movemos. Este tipo de animaciones son muy co-
munes en los visores tridimensionales, que permiten definir el trayecto y los paráme-
tros que establecen cómo en los distintos puntos de este el observador mira al terreno.
Podemos, asimismo, escoger cualquier variable adicional como eje de la ani-
mación. Imaginemos, por ejemplo, que disponemos de una capa con una serie de
divisiones administrativas, y que para cada una de ellas conocemos el numero
medio de hijos por pareja. Supongamos que esta información la tenemos además
divida por grupos en función de sus ingresos medios anuales. Podemos crear tantos
mapas de coropletas como clases haya establecidas en función de esos ingresos,
y simbolizar en cada una de ellas los polígonos correspondientes a las divisiones
administrativas según el número de hijos. Si usamos esos mapas, cada uno de
los cuales constituye una escena, para formar una animación, esta mostrará la
variación del número de hijos en función de los ingresos medios. Esa última variable
es el eje sobre el que se desplaza la animación, y el tiempo y el espacio no han sido
usados de modo alguno para crear esta.
Al la hora de crear una animación, debemos tener en cuenta no solo las seis
variables visuales que estudiamos en el capítulo 26, sino otras seis nuevas, las
denominadas variables visuales dinámicas[391]:
Momento. El equivalente a la variable visual posición, indica el momento
en la animación en que se produce un cambio de una escena a otra.
Frecuencia. Indica la velocidad a la que se produce el cambio en la ani-
mación. Si es demasiado lenta, puede aportar una longitud excesiva a esta,
726 Sistemas de Información Geográfica
Vídeos. Del mismo modo que las fotografías, aportan más información sobre
la zona representada y permiten una exploración mayor. Aunque son una
tecnología aún muy experimental, existen también vídeos de tipo inmersivo.
Sonido. Los elementos no han de ser necesariamente visuales, sino que
pueden proporcionar información a través de otros sentidos distintos.
Documentos. Un SIG puede incorporar documentos complejos tales como
páginas Web o textos varios.
Esta lista, no obstante, es muy susceptible de extenderse, ya que, virtualmente,
un SIG puede incorporar cualquier elemento que pueda manejarse dentro de un
ordenador. Cada día aparecen nuevas ideas sobre cómo combinar la información
geográfica con otros tipos de información, y el SIG se sitúa en la base de todos
estos nuevos planteamientos como herramienta fundamental de trabajo.
28.9. Resumen
Hemos visto en este capítulo cómo aplicar las ideas de capítulos previos a la
representación de capas en un SIG. Cada tipo de capa tiene sus particularidades,
y es en función de estas como hemos analizado la mejor forma de emplear las
variables visuales y los conceptos de simbología gráfica que ya conocemos para
simbolizar la información geográfica e incorporarla a un mapa.
Puesto que una parte de las representaciones que generamos en un SIG están
destinadas a ser representadas en pantalla, hemos analizado igualmente las impli-
caciones que esto tiene a la hora de crear visualizaciones a partir de la información
geográfica con la que trabajamos. Dos son los principales aspectos que han de
tenerse en cuenta: la baja resolución de la pantalla en comparación con el papel
y la interactividad propia de la representación.
Además de trabajar con las formas cartográficas clásicas que un SIG es capaz
de producir, existen nuevas formas que también hemos detallado, entre las que
destacan las vistas tridimensionales y las animaciones. Junto a ellas, una de las
tendencias actuales que aumentan las posibilidades de un SIG como herramienta de
visualización es la incorporación de otros elementos tales como vídeos, fotografías
u otros documentos de diversas clases.
Parte VI
El factor organizativo
Capítulo 29
Trabajar con un SIG requiere una correcta organización a todos los niveles. Ahora que
conocemos qué podemos hacer con un SIG, es el momento de ver cómo debemos plantearnos
ese trabajo de forma óptima, dejando los aspectos técnicos y centrándonos en aspectos funcio-
nales, organizativos y humanos, todos ellos igual de importantes que los anteriores ya vistos.
En este capítulo se presentan las ideas fundamentales relativas a la organización de
un SIG, su implantación y uso. Estas ideas serán básicas para entender posteriormente los
restantes capítulos de esta parte, en los que se desarrollan por separado algunos conceptos
relacionados y de gran importancia en la escena actual de los SIG.
29.1. Introducción
Como sistema complejo, un SIG requiere una organización eficiente que per-
mita la correcta interacción de todos sus elementos y a todos los niveles. Esta
organización es tanto más necesaria cuanto más volumen adquiere el sistema SIG,
pues la propia complejidad de este puede conllevar la perdida de eficiencia y un
uso en el que no se aprovechan plenamente las capacidades que el SIG ofrece como
herramienta para el trabajo con datos geográficos. Una organización ineficiente
es con frecuencia el cuello de botella más importante con el que un sistema SIG
se encuentra y, paradójicamente, un aspecto con frecuencia olvidado.
Los niveles de complejidad y volumen que encontramos actualmente en el
ámbito de los SIG son muy superiores a los que existían hace apenas unos años,
y requieren un enfoque distinto para poder lograr que todas las piezas del SIG
funcionen de forma armoniosa y sincronizada, sin problemas derivados de una
mala sincronización o de un incorrecto dimensionamiento del sistema. De hecho,
el cambio que veíamos en el capítulo 1 en la definición del propio SIG, en el que se
pasaba de una combinación de hardware y software para manejo de datos localizados
espacialmente a un sistema complejo con más componentes, viene en gran medida
desencadenado por la creciente consideración de la organización como un factor
vital para el buen funcionamiento del SIG. Esa organización a la que originalmente
no se le concedía la relevancia actual debido a que las circunstancias eran distintas,
se ha demostrado en el contexto presente como un elemento clave para la gestión
del SIG, y sin duda alguna un elemento al que ha de prestarse atención en cualquier
utilización de un SIG más allá del ámbito meramente personal.
732 Sistemas de Información Geográfica
debe ser capaz de poder acceder a los datos en el formato en que estos se
encuentren almacenados. Por su parte, los datos deben ser los adecuados
para satisfacer las necesidades de los usuarios que forman parte del sistema,
para que estos, a través de los procesos de análisis y otras operaciones dispo-
nibles, obtengan resultados de interés de una forma óptima. Consideraciones
similares pueden realizarse si se consideran elementos distintos del sistema
SIG y su interrelación particular.
Mejor relación entre representantes de un mismo elemento del sis-
tema. Los elementos del sistema son a su vez conjuntos de otros elementos.
La parte humana de un SIG no es una única persona, del mismo modo que el
software puede no ser una única aplicación, sino varias de ellas para realizar
distintas tareas sobre la información geográfica. A medida que avanzamos
en el desarrollo de los SIG, encontramos escenarios más complejos en los que
se multiplica la magnitud de los distintos factores implicados (más gente,
más datos, más potencia en el hardware empleado...), requiriéndose a su vez
una organización interna de esos mismos factores.
A la hora de planificar la implantación de un SIG, debemos tratar de homo-
geneizar internamente cada uno de sus elementos, o al menos de incorporar
mecanismos que garanticen una correcta comunicación y coordinación a
todos los niveles. Esto puede implicar, por ejemplo, aplicar estrategias de
trabajo coordinado para organizar el factor humano, o emplear esquemas
comunes para el almacenamiento de datos. Si cada uno de los datos con
que trabajamos presenta una estructura distinta, encontraremos el mismo
problema que si las distintas personas que van a trabajar en nuestro entorno
SIG hablan distintos idiomas y son incapaces de comunicarse. En esta situa-
ción, puede resultar complejo y poco eficiente (o incluso ser por completo
imposible) emplear varios grupos de datos de forma conjunta, restando así
capacidades y eficiencia al sistema.
Logrando lo anterior, el sistema SIG ofrece mejor funcionamiento, justificando
así plenamente el esfuerzo desarrollado para su correcta implementación y organiza-
ción, esfuerzo que, por otra parte, en ocasiones es notable y no debe menospreciarse.
29.3.1. Datos
Ya sabemos que sin datos no podemos trabajar en un SIG, por lo que la implanta-
ción de este implica necesariamente la implantación de un conjunto de datos a partir
de los cuales poder efectuar las operaciones propias del SIG. Esto conlleva el diseño y
creación de una base de datos contra la que posteriormente trabajarán las distintas
aplicaciones, bien sea para leer esos datos, modificarlos, o añadir nuevos datos.
A la hora de planificar el diseño y creación de la base de datos, se deben
considerar todas las actividades que a lo largo de su vida van a desarrollarse sobre
ella. En función de esto, se establecen las distintas etapas a seguir, que en una
primera aproximación pueden ser las siguientes:
Recopilación de datos. Los datos a incluir en nuestro SIG pueden obtener-
se de procedencias muy diversas, ya sea adquiriéndolos de proveedores priva-
dos, de organismos oficiales o de cualquier otra entidad que disponga de los
datos que van a ser necesarios. La elaboración de una lista de datos necesarios
ha de realizarse considerando los futuros análisis que tendrán lugar sobre ellos,
con objeto de saber qué datos hemos de obtener (es decir, qué variables del me-
dio van a ser necesarias), pero también algunas características más detalladas
de esos datos. Por ejemplo, si los usuarios de nuestro SIG van a hacer estudios
a distintas escalas, es de interés contar con un mismo dato en esas escalas
de trabajo, para así facilitar el manejo de datos y optimizar las operaciones.
Si los datos que pueden obtenerse por las vías habituales no son suficientes,
será necesario, siempre que ello sea viable dentro del contexto de la implanta-
ción, elaborar aquellos que no hayan podido obtenerse. La creación de estos
datos debe encaminarse a obtener un producto acorde con el resto de datos
de que disponemos, para que puedan integrarse de la forma más sencilla
posible y disminuyan el trabajo a realizar.
En ocasiones, la creación de nuevos datos no implica obligatoriamente el
desarrollo de trabajo de campo o la aplicación de técnicas como las que vimos
en el capítulo 6 (por ejemplo, la digitalización). Puede ser interesante elabo-
rar nuevas capas de datos a partir de las ya disponibles, mediante procesos
de análisis u operaciones como las que ya hemos visto en una parte anterior
del libro. Aunque estos procesos pueden ser llevados a cabo por los usuarios
en el momento de necesitar un determinado dato, crear previamente ese dato
y ofrecerlo junto a los demás puede ser interesante por varias razones.
En primer lugar, si son varios los usuarios que en un momento concreto van
a necesitar ese dato, evitaremos la repetición innecesaria del proceso, con la
consiguiente ganancia de tiempo. En segundo lugar, un usuario puede no estar
Introducción. ¿Cómo se organiza un SIG? 735
adicionales, simplificará más tarde el trabajo con el SIG y será una garantía del
éxito de su implementación.
29.3.2. Personas
Si a lo largo de este libro hemos mencionado en repetidas ocasiones que los datos
son el elemento imprescindible del sistema SIG, a la hora de implementar y organizar
este son las personas quienes juegan el papel principal. El desarrollo del sistema SIG
debe realizarse a partir de los usuarios, ya que la influencia que tienen en los restantes
elementos es muy superior a la de estos otros. Los usuarios son quienes operan direc-
tamente con las aplicaciones y quienes además han de tomar decisiones a lo largo de
un proyecto SIG, por lo que es necesario escuchar sus necesidades y sus opiniones
antes de implantar un SIG, con el fin de proporcionarles el mejor entorno posible.
Las consideraciones acerca de los restantes elementos, tales como datos o soft-
ware, deben matizarse «escuchando» lo que los usuarios pueden decir al respecto.
El éxito en la implantación de un SIG pasa por tener en cuenta de forma conjunta
los requerimientos del mayor número de usuarios posible, considerando incluso
el perfil de futuros usuarios que puedan incorporarse más adelante.
Resulta erróneo, por ejemplo, adquirir un determinado software basándose
exclusivamente en las propias características de este, y sin consultar a los futuros
usuarios si poseen alguna experiencia previa con él o con otro similar. No siem-
pre la mejor herramienta desde el punto de vista técnico garantiza unos mejores
resultados al usarla, ya que existen otros factores que afectan a la productividad y
la calidad de los trabajos que se desarrollen posteriormente sobre esa herramienta.
Una sencilla encuesta a los usuarios es una herramienta muy valiosa para
aportar información en este sentido y decantar la elección de la herramienta en uno
u otro sentido. Igualmente, nos permitirá saber algo más sobre el nivel medio de los
usuarios, sus preferencias o el tipo de trabajo que desarrollan mayoritariamente.
Se admite generalmente que el éxito en la implantación de un SIG pasa por
un modelo de implantación que dé preponderancia a los usuarios como factores
a considerar. No obstante, este enfoque no es siempre sencillo y no siempre está
exento de riesgos. Definir las necesidades de los usuarios es uno de los aspectos
vitales para la implementación de un SIG, pero también uno de los más difíciles
[392]. En ocasiones, por ejemplo, el usuario no necesariamente sabe qué es lo que
necesita o qué le conviene. Un problema muy habitual en el mundo del SIG es el
desconocimiento por parte de los usuarios de las verdaderas capacidades que el
SIG tiene y puede ofrecerles. Estos usuarios son capaces de utilizar un SIG, pero
el aprovechamiento que hacen de este no es óptimo, ya que ignoran una gran parte
de su potencia. El hecho de que las aplicaciones SIG sean complejas y dispongan
de funcionalidades numerosas contribuye a este hecho.
En este sentido, es importante considerar el papel de los usuarios también con
posterioridad a la implantación del SIG, es decir, una vez que se ha tomado una
Introducción. ¿Cómo se organiza un SIG? 737
ellos están los administradores de las bases de datos, los programadores o los técnicos
encargados de la digitalización de cartografía. Estos deben tener un amplio conoci-
miento del software que usan, pero no es necesario que sean expertos en el ámbito
de aplicación en el que se encuentran. Así, los técnicos que digitalicen cartografía
deben tener suficientes conocimientos cartográficos y de manejo de la herramienta,
pero pueden desarrollar su trabajo sin conocer en profundidad aquello que están
digitalizando (por ejemplo, parcelas de inventario o unidades de gestión del monte).
Entre estos dos extremos encontramos un diverso abanico de usuarios que
emplearán de un modo u otro el SIG, y que aplicarán en distinta medida sus pocos
o muchos conocimientos del ámbito de la gestión forestal, estando especializados de
forma distinta en ambos campos. Podemos ver cómo todos estos tipos de usuarios
se caracterizan, pues, atendiendo principalmente a sus capacidades dentro de dos
ámbitos distintos: el de los SIG y el ámbito propio de aplicación de este (en este
caso, el de la gestión forestal). En función de esto, [393] define cuatro bloques
principales de usuarios:
Técnicos informáticos. Con alta especialización en SIG pero escasa en el
ámbito de aplicación.
Profesionales ocasionales. Gestores y usuarios finales, con conocimientos
limitados de SIG y alta especialización en el ámbito concreto de aplicación.
Público. Los clientes del servicio que ofrece la organización en que se im-
planta un SIG, los cuales normalmente no presentan una gran especialización
en ninguno de los dos bloques mencionados.
Especialistas en la aplicación. Expertos que conocen con detalle el SIG
y también el campo de aplicación de este. Se incluyen aquí los analistas SIG y
los cartógrafos, para cuyo trabajo se requiere un alto conocimiento de todos
los elementos implicados.
Un resumen distinto de estas ideas acerca de los usuarios de un SIG lo encon-
trarás en la tabla 29.1, donde puedes ver una definición de las principales labores
que estos y los perfiles correspondientes a estas.
Con todo lo anterior, tenemos ya un marco en el que trabajar a la hora de
implantar un SIG, tratando de no dejar fuera de este a ningún grupo de usuarios
y adaptándolo a las distintas formas de utilizarlo que estos presentan.
29.3.3. Software
Puede pensarse en un principio que el software es el único factor a tener en cuen-
ta al realizar la implantación de un SIG, pues es la cara visible de ese GIS de cara al
usuario y al trabajo que este realiza. Sabemos ya, sin embargo, que esa visión simpli-
ficada en la que la elección de un software es la única decisión relevante a tomar es
errónea, pero incluso en ese caso, el problema al que nos enfrentaríamos no sería sen-
cillo. El mercado está lleno de aplicaciones SIG de muy diversas características que
no hacen precisamente fácil elegir la más adecuada a nuestras necesidades concretas.
Introducción. ¿Cómo se organiza un SIG? 739
Cuadro 29.1: Labores principales desempeñadas por los usuarios de un SIG (adaptado
de [394])
Más aún, lo más probable es que ninguna de esas aplicaciones, pese a la amplia
variedad existente, pueda cubrir dichas necesidades, y nos veamos obligados a com-
binar varias de ellas. Si el entorno de trabajo hacia el que enfocamos la implantación
de nuestro SIG es amplio, la gama de necesidades que vamos a encontrar resultará
más extensa, siendo todavía más complejo elegir el software que necesitamos.
Conocer con detalle el panorama actual del mercado de aplicaciones SIG es
complejo, pero tener una visión global de sus principales representantes puede ser
sencillo y muy útil no solo para elegir una aplicación concreta, sino también para
saber qué podemos esperar al tratar de escoger una herramienta. El del SIG es un
escenario cambiante donde aparecen muchas novedades continuamente, y donde
los enfoques cambian a veces de forma notable.
Aun conociendo qué aplicaciones SIG existen en el mercado y sus características,
740 Sistemas de Información Geográfica
la elección de una que responda a nuestras exigencias puede no ser posible. En ocasio-
nes, no existiendo una alternativa satisfactoria, puede ser necesario desarrollar ele-
mentos adicionales a medida de las necesidades existentes, e incluso, en un caso más
extremo, el desarrollo completo de una aplicación SIG. Como vimos en el capítulo
21, los SIG en la actualidad se conciben como elementos base muy extensibles, sien-
do sencillo extenderlos desarrollando únicamente las capacidades que necesitamos,
y haciendo uso de forma transparente de todas las funcionalidades que ya contienen.
En lo que respecta a la procedencia del software, encontramos una situación
parecida a la existente con los datos. Adquirir software es la solución más inme-
diata y generalmente asequible, aunque en circunstancias particulares es necesario
producir el software necesario que responda a unos requisitos más específicos. El
desarrollo de este software puede contratarse como un servicio externo, o bien
dentro del organismo de trabajo en el que nos encontremos[395].
En caso de optar por simplemente utilizar un producto existente en el mercado,
[15] cita algunas cuestiones que deben plantearse antes de elegir un software SIG,
entre las que figuran las siguientes:
¿Qué funcionalidades tiene?
¿Cumplen esas funcionalidades los requerimientos de mi organismo/equipo
de trabajo?
¿Necesito realmente todas esas funciones?
¿Dispone de un entorno amigable?
¿Dispone de funcionalidades adicionales para usuarios avanzados?
¿Puede intercambiar datos con otras aplicaciones usadas en mi organis-
mo/equipo de trabajo?
¿Qué documentación existe?
¿Es posible obtener formación?
¿Cuánto cuesta?
¿Puede esperarse que el fabricante siga desarrollando y apoyando este soft-
ware?
¿Qué sistema operativo necesita para ejecutarse?
Como ya se ha mencionado, estas cuestiones deben relativizarse en función
de otros criterios tratados en este mismo apartado. Los usuarios del software
condicionan, por ejemplo, lo que entendemos por «entorno amigable», ya que
usuarios expertos pueden encontrar muy amigable una linea de comandos, mientras
que otros menos familiarizados con este tipo de interfaces pueden ser incapaces
de trabajar con ella. En este caso, es incluso probable que el usuario experto sea
mucho más productivo en esa interfaz de linea de comandos que en otra distinta,
con lo cual cabe reflexionar acerca de este apartado y tener claro que un mismo
software puede ser interpretado de formas distintas según las circunstancias.
Asimismo, si consideramos la posibilidad de desarrollo de elementos adicio-
nales mencionada anteriormente, es importante tener en cuenta el aspecto relativo
a la forma de licenciamiento del software, bien sea como software libre o bien
Introducción. ¿Cómo se organiza un SIG? 741
29.3.4. Hardware
Sin dejar de ser relevante, el hardware plantea menos problemas que otros ele-
mentos a la hora de implementar un SIG. Pese a ser un elemento fundamental, las ac-
tuales capacidades de los ordenadores y el cada vez menor coste de la tecnología han
hecho más sencilla la elección de equipos adecuados dentro de un presupuesto dado.
El hardware es, además, el elemento en el que las particularidades del SIG
tienen menos influencia, al menos en lo que a los ordenadores como tales respecta.
Los requisitos de un SIG en este aspecto no son muy distintos de lo que cabe
esperar en muchas otras aplicaciones de distinta índole hoy en día.
Estudios como [396] muestran que las características de los equipos empleados
para el trabajo con SIG dentro de un organismo o grupo de trabajo dependen
principalmente del tamaño de la comunidad de usuarios. Es decir, que por encima
de otras consideraciones tales como qué hacen esos usuarios o cómo lo hacen, el
factor más relevante es cuántos usuarios existen. Esto parece lógico si se piensa que
un mayor número de usuarios va a implicar una mayor cantidad de datos y muy
posiblemente unas mayores necesidades de proceso, circunstancias que favorecen
el empleo de estaciones de trabajo de mayor potencia, en lugar de o junto a los
habituales ordenadores personales.
La parte más específica dentro de un SIG en lo referente a hardware la encontra-
mos en los periféricos. Como ya vimos en el capítulo 6, algunas tareas tales como la
creación de datos requieren equipos especiales como por ejemplo tabletas digitaliza-
doras. Mientras que un puesto de trabajo para un usuario que realice un trabajo de
análisis de datos es sencillo de instalar y requiere, en términos de hardware, poco más
que un equipo estándar, una estación fotogramétrica digital tienen unos requisitos
más específicos. En casos particulares como este, la oferta suele ser mucho más redu-
cida y, con frecuencia, los proveedores de software y hardware son el mismo y no ofre-
cen ambos productos por separado, sino formando parte de paquetes ya definidos.
Otro aspecto particular del hardware SIG aparece en la generación de salidas.
La creación de mapas impresos, generalmente de gran tamaño, exige el empleo
de medios de impresión de gran formato, menos comunes y con un coste mayor
que el de impresoras y plotters comunes.
742 Sistemas de Información Geográfica
29.5. Resumen
Implantar un SIG es una tarea compleja de la que depende posteriormente el
éxito de dicho SIG. Organizar y coordinar adecuadamente todos los elementos de
un SIG es una labor básica para llevar a cabo una correcta implantación. Hemos
visto en este capítulo cómo considerar cada uno de esos elementos tanto por sí
mismos como en relación con los restantes, y de qué forma plantearse lo que cada
uno de ellos representa antes de tomar decisiones de cara a la implantación de SIG.
Entre ellos, los usuarios suponen el elemento de mayor importancia, alrededor del
cual debe centrarse el proceso de implantación.
Es necesario igualmente organizar los proyectos SIG y tener en cuenta las parti-
cularidades de estos como proyectos, para así poder aplicar las técnicas habituales
de gestión de proyectos de forma más específica. La característica particulares que
define a un proyecto SIG en comparación con otro tipo de proyectos es su alta
multidisciplinaridad.
744 Sistemas de Información Geográfica
Capítulo 30
30.1. Introducción
Alrededor de un SIG se movilizan elementos técnicos a varios niveles, y con-
fluyen diferentes equipos de trabajo. Así, además de los aspectos técnicos, es
importante plantearse los aspectos organizativos, funcionales y humanos. Si plan-
tearse estos aspectos es importante dentro de una misma organización, se convierte
en algo fundamental cuando confluyen múltiples organizaciones a varios niveles.
Si observamos las diferentes comunidades de usuarios de SIG, observaremos
que, si todas esas comunidades se coordinan y encuentran elementos comunes en
que apoyarse, pueden surgir abundantes intereses comunes que beneficien a todas
ellas, evitando la duplicidad de tareas. Así pues, cada vez es más habitual que en
los proyectos SIG no sólo esté implicada una organización, sino que se trabaje de
forma distribuida y colaborativa entre varias.
A este hecho hay que sumar que uno de los principales productores de infor-
mación geográfica son los organismos públicos, desde el nivel nacional hasta el
regional, y que esos datos van a ser utilizados por múltiples organizaciones y gran
cantidad de usuarios de SIG.
Las pautas organizativas que se definirían dentro de una organización deben
traducirse a este nivel superior en políticas y normativas que establezcan un
contexto general adecuado. En este, todos los actores implicados en el trabajo con
información geográfica, desde su creación hasta su uso final, pueden coordinarse
y beneficiarse del trabajo mutuo, así como, especialmente, del desarrollado por
las administraciones en su faceta de productores de datos geográficos.
Sin una coordinación así, el aprovechamiento de los SIG y de la información
geográfica no sería todo lo completo que cabría desear. El número de proyectos
que no se desarrollan o que salen adelante en condiciones no óptimas por falta de
746 Sistemas de Información Geográfica
Podemos definir una IDE como un conjunto de datos espaciales, tecnología, nor-
mas y planes institucionales, todos ellos encaminados a facilitar la disponibilidad
y el acceso a dichos datos espaciales.
A diferencia de los planteamientos anteriores a la aparición de las IDE, en los que
se consideraba a los datos como elementos independientes que podían jugar su papel
en el entorno SIG sin necesidad de establecer políticas o acuerdos referidos a ellos, el
desarrollo de las IDE trae consigo un nuevo planteamiento en el que los datos necesi-
tan elementos adicionales para ser verdaderamente productivos. Una Infraestructu-
ra de Datos Espaciales es, por tanto, mucho más que datos. Como indica [398], una
IDE incluye, además de los datos y atributos geográficos, documentación suficiente
(los denominados metadatos), un medio para descubrir, visualizar y valorar los datos
(catálogos y cartografía en red) y algún método para proporcionar acceso a los datos
geográficos (generalmente, Internet es el medio principal). Además, debe haber
servicios adicionales o software para permitir aplicaciones de los datos. Por último,
para hacer funcional una IDE, también debe incluir los acuerdos organizativos nece-
sarios para coordinarla y administrarla a escala regional, nacional y transnacional.
Los conceptos básicos que podemos extraer de esta definición son los siguientes:
Información contenida. Una IDE es más que un conjunto de datos espa-
ciales que se ofrecen para ser utilizados por más usuarios que los concebidos
originalmente. Una IDE debe contener también servicios para descubrir
qué datos hay disponibles (servicio de catálogo), servicios para acceder a
la información geográfica y a la cartografía, y finalmente metadatos que
describan los conjuntos de datos y los servicios disponibles.
Utilización de estándares. Los servicios y tecnologías utilizados en una
IDE deben basarse en estándares aceptados internacionalmente para permitir
la interoperabilidad a nivel técnico entre los sistemas de la IDE.
Establecimiento de acuerdos. El aspecto más importante de la IDE es el
establecimiento de acuerdos entre los actores para la utilización de tecnolo-
gías y servicios compatibles y para la unificación de los modelos de datos de
cada nivel de la IDE, de forma que se permita la combinación de los conjuntos
de datos espaciales y la interacción de los servicios sin intervención manual
repetitiva, obteniéndose un resultado coherente. Estos acuerdos también dis-
minuyen los costes que conlleva la integración de la información proveniente
de diversas fuentes, y eliminan la necesidad del desarrollo paralelo de instru-
mentos para el descubrimiento, intercambio y explotación de datos espaciales.
Por ejemplo, y como veremos con detalle más adelante, INSPIRE [399] es la
directiva europea que se ha establecido como marco de políticas, disposiciones
institucionales, tecnologías, datos y personal de todas las IDE en la Unión Eu-
ropea. INSPIRE dicta una serie de normas que son de obligado cumplimiento
Infraestructuras de Datos Espaciales 749
para las IDE europeas, pudiendo cada país miembro establecer normas más
restrictivas para su ámbito siempre que no entren en conflicto con INSPIRE.
un nodo de nivel superior impone requisitos a los nodos inferiores para hacer que
su información o su modo de funcionamiento sea coherente.
ción geográfica se realiza en el sector público. Por ello, las políticas que el
sector público determine con respecto a su mantenimiento, recolección y uso
son las que mayor impacto tienen sobre la IDE. No se puede, no obstante,
olvidar al sector privado, ya que es uno de los más interesados en el uso de
la información proporcionada por una IDE.
Redes accesibles. Un sistema de información que ignore la gran importan-
cia de Internet hoy en día está condenado al fracaso. En el campo de las IDE
es necesario que existan redes accesibles para los usuarios y que estas redes
soporten el tráfico producido cuando un usuario realiza una petición a un
servidor y este le responde con la información geográfica solicitada. La red
es el medio en el que la IDE se desarrolla, y gracias al cual puede ser efectiva.
Herramientas de consulta y descubrimiento de datos. Como ya he-
mos mencionado, los problemas que pueden aparecer en relación con los datos
pueden deberse a una carencia de estos o al hecho de no estar disponibles, pero
también a la dificultad de encontrarlos y de ser consciente de que esos datos
existen en algún lugar. Si Internet es el medio para difundir la información
geográfica, nos encontramos ante el mismo problema que con otros tipos de
información: encontrar lo que buscamos en la enorme colección de datos que
existen. Encontrar una página Web en Internet sin la ayuda de alguno de los
buscadores que habitualmente empleamos es una tarea prácticamente impo-
sible. Del mismo modo, cuando un organismo publica sus datos debe proveer
medios para navegar en esos datos y buscar aquel que deseamos obtener. Estos
medios conforman lo que se conoce como catálogos. Veremos en una sección
posterior dentro de este capítulo algunas ideas más detalladas acerca de ellos.
Usuarios. Uno de los principales pilares dentro de una IDE son los usuarios,
ya que solo si una IDE cubre sus necesidades, estos aceptarán esta nueva
forma de trabajar y las IDE se mantendrán y evolucionarán. Por lo tanto, es
importante conocer quiénes son los usuarios potenciales de cada una de las
IDE y las necesidades que van a tener para poder definir los roles e identificar
y evitar conflictos de interés entre usuarios. Esto permitirá conseguir el
máximo nivel de satisfacción de los usuarios de la IDE.
Es fácil identificar en los puntos anterior una buena parte de los elementos que
mencionamos en el capítulo dedicado a la implementación de un SIG, ya que, en
buena parte, el establecimiento de una IDE y la implantación de un SIG comparten
aspectos comunes.
ejemplo las áreas de urbanismo de los municipios, o los organismos de gestión de las
cuencas hidrográficas), empresas que pueden usar la información para sus negocios
(por ejemplo empresas de elaboración de planes urbanísticos), universidades y
centros de investigación, o personas individuales. Todos estos tipos de usuarios
deben estar contemplados en la IDE ya que el éxito de la misma radica en cubrir
las necesidades del mayor número posible de usuarios.
De forma más detallada, [400] divide los usuarios según su perfil en los siguientes:
Usuario básico. Utiliza las herramientas básicas tales como un visor Web.
Usuario avanzado. Utiliza herramientas y aplicaciones específicas no dis-
ponibles para el público general, ya sea a través de la Web o como aplicaciones
locales.
Usuario de negocio. Accede a los datos de la IDE desde aplicaciones
externas, para combinarlo con otros fuera de la IDE y realizar algún tipo
de negocio en base al conjunto.
Usuario consultor. Está autorizado a acceder a datos restringidos de una
temática específica.
Usuario editor. Encargado de mantener un subconjunto de datos existentes
en la IDE.
Usuario gestor. Gestiona determinados servicios proporcionados por la
IDE, por ejemplo un servicio de mapas temáticos concreto.
Administradores. El responsable final de mantener la infraestructura y
dar soporte técnico a los restantes usuarios.
A medida que descendemos en esta clasificación, aumenta la especialización
al tiempo que disminuye el número de usuarios que pertenecen a cada una de las
clases definidas, tal y como se recoge esquemáticamente en la figura 30.1
Además de los usuarios, otros actores involucrado en una IDE son los orga-
nismos internacionales de creación de estándares, en concreto la organización de
estandarización internacional ISO con sus miembros nacionales, el Open Geospatial
Consortium (OGC) y el World Wide Web Consortium (W3C). Estos organismos
definen las normas y estándares que formarán la base tecnológica de la IDE y que
permitirán su interoperabilidad.
Junto a los anteriores, encontramos al responsable particular de cada nodo
IDE. Este responsable puede ser una administración pública, una empresa, una
universidad, un centro tecnológico u otro tipo de organismo que se hace responsable
de la administración del nodo IDE y de establecer los estándares que se deben
cumplir dentro de su ámbito, así como normas o recomendaciones adicionales. A
modo de ejemplo, para la IDE de España el responsable es el Instituto Geográfico
Nacional, para la IDE de Galicia el responsable es el Sistema de Información
Territorial de Galicia y para la IDE de la provincia de A Coruña el responsable
es la Diputación de A Coruña.
De entre todos los responsables que podemos encontrar en el conjunto de
Infraestructuras de Datos Espaciales 753
Usuario
utiliza
Interfaz de usuario
Otros servidores
de catálogo
e
d as d
las entra
procesan
30.6.1. GSDI
La GSDI (Global Spatial Data Infrastructure) Association en una organización
que agrupa a otras organizaciones, agencias, compañías e individuos de todo el
mundo con objeto de apoyar las IDE y su desarrollo con carácter global. GSDI
es responsable de aglutinar a todas ellas y coordinarlas, en un intento de trabajar
en el nivel superior de la jerarquía de las IDE y poner en marcha una iniciativa
que cubra la totalidad del territorio mundial.
GSDI se fundó en 1996, y viene hasta la fecha realizando un trabajo fundamen-
talmente basado en guiar el desarrollo de iniciativas locales y nacionales aún en
sus inicios o que todavía no han llegado a comenzarse. En este sentido, GSDI actúa
como un canalizador de toda la experiencia acumulada a lo largo de los últimos
años por las distintas iniciativas IDE que han surgido, tratando de replicar en
Infraestructuras de Datos Espaciales 759
las IDE que empiezan a desarrollarse el buen hacer de las más exitosas, así como
evitar que se vuelvan a cometer los errores de las que no lo han sido tanto.
En sus propias palabras, la misión de la GSDI se puede resumir en los siguientes
puntos.
Servir como punto de contacto para todos aquellos dentro de la comunidad
global implicados en el desarrollo, implementación y avance de los conceptos
de las IDE
Impulsar las IDE que apoyan sistemas sociales, económicos y medioambien-
tales sostenibles, integrados desde la escala local a la global.
Promover el uso informado y responsable de la información geográfica y las
tecnologías espaciales para el beneficio de la sociedad.
30.6.2. NSDI
Aunque hoy en día prácticamente todos los países tienen su propia IDE, la
IDE de los Estados Unidos es especialmente importante entre todas ellas, ya
que fue la primera en aparecer. Es decir, Estados Unidos fue el primer país en
poner en marcha una iniciativa de gran calibre para apoyar a nivel nacional la
creación y manejo coordinados de información geográfica, tal como los principios
fundamentales de un IDE establecen. Por ello, resulta especialmente ilustrativa,
tanto por el éxito del proyecto en estos años y la influencia directa que en la
actividades de otros países ha tenido, como por el carácter de referente y la gran
experiencia acumulada durante toda su existencia.
La Infraestructura de Datos Espaciales de Estados Unidos, denominada NSDI
(National Spatial Data Infrastructure), surge en abril de 1994 como consecuencia
de la promulgación de la Orden Ejecutiva 12906[16], que insta a avanzar en la
construcción de una infraestructura nacional de datos espaciales coordinada entre
las administraciones federal, estatal y local, el sector privado y el académico. Esta
Orden recoge las propuestas redactadas un año antes por el Comité Federal de
Datos Geográficos (FGDC) [403], el cual queda a su vez como responsable del
avance de la NSDI en el ámbito federal.
No resulta extraño que la primera IDE apareciera en Estados Unidos, ya que el
país contaba con una larga trayectoria de otras propuestas similares que trataban
de promover un manejo racional y eficiente de la información geográfica, dirigiendo
a los organismos federales en la dirección adecuada para lograr esto. Asimismo,
existía una importante tradición en el uso de las tecnologías de la información
espacial, que desde sus primeros momentos habían contado con abundante apoyo
por parte de la administración.
El gobierno federal llevaba desde los años 50 tratando de concienciar sobre
la importancia de coordinar las labores relativas a la información geográfica. De
especial importancia resulta la Circular A–16, redactada en 1953 y posteriormente
revisada en 1973 y 1990. En esta última revisión se adaptan los contenidos a
760 Sistemas de Información Geográfica
30.6.3. INSPIRE
INSPIRE [405] es la principal directiva europea relativa a información geo-
gráfica, y surge como continuación de algunos intentos previos que llevaban
desarrollándose en Europa desde los años 90, todos ellos sin demasiado éxito. El
problema de estas propuestas era que no partían de algún órgano de gobierno
comunitario, sino directamente de los productores de cartografía.
En septiembre de 2001, sin embargo, surge una iniciativa de la Dirección
General de Medio Ambiente de la Unión Europea, encaminada también a mejorar
el manejo de información geográfica en sus tareas y proyectos, gran parte de los
cuales son de carácter transfronterizo.
En conjunto con la Agencia Europea Eurostat, y el Instituto para el Medio
Ambiente y la Sostenibilidad, a través de su Centro de Investigación Común (Joint
Infraestructuras de Datos Espaciales 761
modo, se establece el contenido deseado para los datos creados y almacenados por
los distintos nodos de la IDE, con objeto de obtener un conjunto global de datos
coherente y facilitar la realización de la mayor parte de tareas en todos los lugares,
así como a todos los niveles de detalle. Es decir, que exista una coherencia tanto
horizontal como vertical en lo que a datos existentes respecta.
Las tablas en 30.1 muestran los tipos de datos que se recogen en los citados
anexos.
Cuadro 30.1: Datos especificados por los anexos I, II y III de INSPIRE, estableciendo
los datos de referencia y temáticos a incluir en una IDE.
Iniciativa Ámbito
GSDI Mundial
INSPIRE Europeo
IDEE Nacional
Figura 30.5: Ejemplo de estructura a distintos niveles para una IDE particular (IDE
de Pamplona) (adaptado de [404])
30.7. Resumen
La situación actual en lo referente a la información geográfica hace necesario
promover una correcta coordinación entre todos los organismos productores de
datos espaciales, desde el nivel local al nivel estatal, con objeto de facilitar la
explotación de esa información y evitar esfuerzos redundantes. Con este objetivo,
surgen a partir de la mitad de la década de los 90 las Infraestructuras de Datos
Espaciales, las cuales se componen de un conjunto de datos espaciales, tecnología,
normas y planes institucionales.
Existen diferentes niveles en una IDE, así como diferentes actores implicados,
haciendo que una IDE sea mucho más que un conjunto de datos espaciales. Algunos
de los elementos principales de una IDE son los metadatos, los estándares (veremos
más sobre estos dos elementos en próximos capítulos) y los catálogos. Estos últimos
permiten el descubrimiento de información geográfica y son el punto de entrada
a los contenidos de las IDE. Las IDE se organizan mediante un conjunto de nodos,
los cuales están a su vez interconectados y coordinados.
Estados Unidos fue pionera en el establecimiento de una IDE, aunque actual-
mente existen iniciativas en la mayoría de países. En la Unión Europea, la directiva
INSPIRE dicta las pautas para el establecimiento de IDE en los países miembro,
que han de crear sus propias IDE siguiendo los preceptos establecidos en ella.
766 Sistemas de Información Geográfica
Capítulo 31
Metadatos
Blake, Landon; Olaya, Víctor
Los metadatos son aquellos datos que describen los datos espaciales y los servicios
disponibles en una IDE. Los metadatos son uno de los puntos de entrada a la información
geográfica contenida en una IDE ya que permiten a un actor sin ningún conocimiento
de esta consultar qué puede ofrecer. En este capítulo describiremos en detalle qué son los
metadatos, su utilidad, y cómo crearlos y emplearlos.
31.1. Introducción
Los datos contienen la información geográfica, y es esta la que empleamos en
un SIG para realizar las distintas operaciones que ya hemos visto en anteriores
capítulos de este libro. No obstante, esos datos pueden resultar insuficientes, ya
que el proceso de interpretación mediante el que extraemos la información a partir
de estos puede requerir conocer alguna otra serie de elementos.
Por ejemplo, si tenemos las coordenadas de un punto disponemos de un dato,
pero para interpretarlo correctamente necesitamos conocer, entre otras cosas, el
sistema de coordenadas en que vienen expresadas esas coordenadas. El dato con el
que trabajamos (las coordenadas), requiere unos datos adicionales (por ejemplo, el
código EPSG del sistema de referencia empleado) para cobrar verdadero sentido.
Surge así el concepto de metadatos. Literalmente, los metadatos son «datos acer-
ca de los datos» y su misión es explicar el significado de los datos. Es decir, ayudan
a los usuarios de los datos a entender mejor el significado que estos tienen y la in-
formación que guardan. Los metadatos son un documento adicional que acompaña
a los datos, y que permite una mejor gestión y una utilización más precisa de ellos.
Trabajando en el entorno de un SIG, los datos con los que trabajamos son de
tipo espacial, y como ya estudiamos en su momento (véase el apartado 4.3), existe
una componente espacial y una temática. Los metadatos pueden referirse a ambas
componentes, ya que es necesario documentar todas ellas, y podemos encontrar
metadatos referidos a una capa de forma global, a su componente espacial o a su
componente temática.
Un ejemplo de metadato global de una capa puede ser el nombre de su autor o la
fecha en la que ese dato ha sido creado. El sistema de referencia en el que se expresan
las coordenadas de cada entidad recogida es un tipo de metadato relativo a la compo-
768 Sistemas de Información Geográfica
elemento (en el caso de una capa vectorial, hablamos de una geometría y sus
atributos asociados) son los siguientes:
Quién ha creado ese elemento.
Quién ha modificado ese elemento.
Cuándo fue creado originalmente.
Cuándo ha sido modificado por ultima vez.
Cuántas veces ha sido modificado.
Una descripción del objeto real que este elemento representa.
Podemos encontrar el caso opuesto, en el que varias capas comparten los
mismos metadatos, y por tanto estos pueden asociarse a escala de toda una familia
de datos. Ese es el caso cuando se tiene un conjunto de capas generadas por una
misma entidad y para un mismo fin, las cuales cubren una amplia zona geográfica
y debido a ello se encuentran divididas horizontalmente. Estas circunstancias se
dan de forma habitual en series de datos de carácter nacional o autonómico, y
conforman una de las situaciones en las que el registro de metadatos puede hacerse
para toda la serie en su conjunto, al menos para algunos de esos metadatos.
Metadatos asociados
a un juego de datos
Metadatos asociados
a una entidad
Metadatos asociados
a una capa
Figura 31.1: Granularidad de los metadatos. Los metadatos pueden hacer referencia
a elementos a distinta escala.
Los metadatos pueden así registrarse a una escala distinta a la de la capa como
unidad de datos, aunque esta sigue siendo la referencia más habitual a la hora de
crear metadatos (Figura 31.1).
776 Sistemas de Información Geográfica
aportan un valor añadido a los datos y facilitan la gestión de datos que estas
organizaciones han de realizar.
Por último, los mismos usuarios y beneficiarios de los datos pueden crear
metadatos o ampliar los ya existentes. Si estos usuarios modifican los datos,
esas modificaciones deben recogerse en los metadatos. Aún así, incluso si no se
producen modificaciones, puede resultar de interés añadir nueva información en
los metadatos, particularmente aquella que estos no contengan pero que pueda
tener valor para los objetivos que se persiguen usando esos datos. Igualmente,
dejar de usar los datos por alguna razón tal como el hecho de que se encuentren
desactualizados es una información que los mismos usuarios pueden incorporar a
los metadatos, informando así a futuros usuarios de la falta de validez de esos datos.
En resumen, los metadatos pueden ser creados o modificados en los siguientes
puntos dentro de la vida de los datos:
Cuando se crean los datos.
Cuando se organizan o catalogan los datos.
Cuando se modifican o editan los datos.
Cuando se archivan o descatalogan los datos.
En circunstancias ideales, todo dato debería tener asociados unos metadatos,
y estos últimos deberían crearse siempre que se creen dichos datos y actualizarse
siempre que estos se modifiquen. La realidad, sin embargo, es que una gran parte
de los datos geográficos que existen no tiene metadatos asociados, o bien estos no
son lo suficientemente detallados.
Una razón importante para ello es la falta de concienciación que existen por
parte tanto de creadores de datos como de usuarios respecto a la importancia
de los metadatos. Mientras que para un usuario aislado o un pequeño grupo de
técnicos SIG puede no resultar importante generar metadatos a la hora de crear
algún dato geográfico, cuando nos encontramos con organizaciones más grandes
e infraestructuras de datos mayores los metadatos se hacen imprescindibles. El
usuario aislado prefiere generalmente no dedicar tiempo (la creación de metada-
tos no es en absoluto sencilla y es una tarea que consume tiempo) a crear unos
metadatos que no percibe como importantes para su trabajo con los datos.
Si en lugar de datos geográficos habláramos de libros, una persona normal no
cataloga los libros que tiene en su casa y recopila información acerca de cada uno de
ellos, almacenándola en una base de datos. En una gran biblioteca, sin embargo, esta
labor es imprescindible, pues de otro modo resulta imposible gestionar tanto el gran
fondo bibliográfico del que se dispone como el amplio número de lectores y usuarios.
En realidad, incluso en el nivel más local, las ventajas de la creación de metada-
tos son grandes, especialmente si consideramos que un dato creado y utilizado en
un entorno local puede más adelante pasar a formar parte de una infraestructura
de datos de mayor envergadura.
La creación de metadatos no tiene que ser necesariamente una labor propia
del técnico o equipo de técnicos que crean los datos en sí, del mismo modo que
778 Sistemas de Información Geográfica
31.6. Resumen
Para que los datos sean verdaderamente útiles es necesario acompañarlos de
otros datos adicionales que los describan y aporten información suplementaria acer-
ca de ellos. Estos datos adicionales son los metadatos, y recogen información tanto
de la componente espacial como de la componente temática del dato geográfico.
La importancia de los metadatos se hace patente en la gestión de la calidad
de los datos, o a la hora de utilizarlos como base para procesos, pues es necesario
conocer todos los detalles relativos a los datos con los que se trabaja. Sin embargo,
es dentro de las IDE donde los metadatos abren gran número de nuevas posibi-
lidades y se demuestran como una pieza imprescindible, ya que permiten que las
operaciones de descubrimiento y consulta de los datos se efectúen de forma eficaz.
Los metadatos pueden asociarse con los datos geográficos en niveles de detalle
diversos, desde una única entidad hasta una colección de varias capas. Esto permite
trabajar con ellos en distintas granularidades. El contenido de los metadatos es tam-
bién variable, y depende de esa granularidad, así como de otros parámetros, como
por ejemplo el tipo de datos, ya que la información adicional que puede recogerse
sobre una capa vectorial no es la misma que la correspondiente a una capa ráster.
Algunas de las secciones más importantes que encontramos en los metadatos
son la identificación del dato, los valores relativos a su calidad o los relacionados
con su distribución, entre otros.
Capítulo 32
Estándares
Olaya, Víctor; Turton, Ian
Dentro de una IDE, debe ser posible acceder a los datos desde distintos puntos y hacerlo
de forma simple y eficaz. Para maximizar el valor de la IDE y hacerla más útil para todos
sus actores, es imprescindible que el acceso a los datos geográficos no presente problemas.
Para ello, es importante definir de forma adecuada cómo se establece la comunicación
entre clientes y servidores, de forma que estos primeros no solo puedan obtener los propios
datos geográficos de estos últimos, sino también realizar consultas o conocer qué otras
funcionalidades se encuentran disponibles.
En otras palabras, resulta necesario definir una lingua franca para que todas las comu-
nicaciones se produzcan de forma fluida. Esto obliga a establecer una cierta normalización y
crear elementos estandarizados que sean conocidos e implementados por los distintos actores
de la IDE, y hacerlo para cada uno de los servicios ofrecidos, así como para los propios datos.
En este capítulo veremos con detalle la importancia de los estándares y el papel exacto
que juegan en una IDE, y describiremos una buena parte de los que actualmente existen.
Puesto que estos estándares están relacionados con las tecnologías cliente–servidor y las
IDE, los capítulos correspondientes a estos elementos (capítulos 23 y 30 respectivamente)
son un requisito necesario para comprender mejor el contenido de este capítulo.
32.1. Introducción
En el capítulo 23 vimos los elementos tecnológicos que permiten ofrecer a
través de una red de servicios relacionados con la información geográfica. Estos
servicios eran muy diversos, y ofrecían posibilidades que iban desde obtener un
dato en sí hasta la realización de consultas sobre el conjunto de operaciones que
un servicio dado puede ofrecer. En todos ellos aparecen un cliente y un servidor,
los cuales se comunican para realizar una tarea concreta.
Este modelo de cliente–servidor en términos tecnológicos no es muy diferente
de la idea de un cliente y un proveedor de servicios en la vida real. Una persona
(el cliente) que quiera adquirir un producto de un distribuidor (el servidor) debe
igualmente comunicarse con él para preguntarle si dispone del producto deseado,
realizar una petición de este y después recibirlo cuando el distribuidor se lo envíe.
En una IDE, un usuario puede consultar el catálogo para localizar un dato concreto
y después acceder a él remotamente mediante, por ejemplo, un cliente Web. Ambos
esquemas de funcionamiento son muy semejantes.
782 Sistemas de Información Geográfica
dades que un cliente o servidor nos ofrece pueden ser distintas a las de otro, pero
independientemente de su origen (independientemente del fabricante), si esos
elementos implementan un estándar dado, siempre podrán interactuar con todos
aquellos que también lo implementen.
La clave, por tanto, está en los estándares, y en particular en que estos sean
estándares abiertos. Un estándar es un documento o práctica que busca armonizar
los aspectos técnicos de un producto o servicio.
Un estándar se considera como tal cuando es empleado por un grupo o comu-
nidad, que lo acepta para la definición de las características de ese producto o
servicio en su seno. Si únicamente es el uso del estándar el que lo ratifica como tal,
se denomina estándar de facto. El formato shapefile para capas vectoriales, por
ejemplo, es uno de estos estándares, ya que está ampliamente difundido y existe tal
cantidad de datos en este formato que todas las aplicaciones deben implementarlo
para tener valor práctico.
Existen estándares que se convierten en normas o estándares de iure, cuando
estos son promovidos por algún organismo oficial de normalización o su uso se
impone con carácter legal.
Un estándar abierto es aquel cuya definición se encuentra disponible y todo
aquel que lo desee puede conocerla y emplearla para el desarrollo de la actividad
relacionada con ese estándar. En nuestro campo de trabajo, eso quiere decir que
cualquier desarrollador que desee crear un nuevo cliente o servidor para datos SIG
puede acceder al estándar y desarrollar en base a este.
Los principios fundamentales de los estándares abiertos son los siguientes [416]:
Disponibilidad. Los estándares abiertos están disponibles para todos el
mundo para su lectura y uso en cualquier implementación.
Máxima posibilidad de elección para los usuarios finales. Los están-
dares abiertos crean un mercado competitivo y justo, y no bloquean a los usua-
rios en el entorno de un vendedor particular. Desde el punto de quienes venden
la tecnología SIG, esto no es tan ventajoso, ya que permite la aparición de com-
petidores que antes no podían existir. Si un fabricante basa sus productos en
un estándar cerrado definido por él mismo, otros no pueden elaborar solucio-
nes que trabajen con esos productos, ya que no conocen el estándar empleado.
Asimismo, el fabricante puede cambiar el estándar utilizado por, por ejemplo,
su producto de servidor, y obligar a los consumidores y a todo aquel que
quiera utilizar un servicio basado en ese servidor a que actualicen también los
clientes, pues los anteriores ya no podrán comunicarse con el nuevo servidor.
Utilizando estándares abiertos, la competencia entre fabricantes ha de ba-
sarse puramente en las capacidades que ofrecen, con lo que los consumidores
ganan en calidad de los productos y en posibilidades de elección.
Gratuidad. Implementar un estándar es gratuito, sin necesidad de pagar,
como en el caso de una patente. Los organismos que generan los estándares
pueden cobrar una cierta cantidad por acceder a la definición de los están-
784 Sistemas de Información Geográfica
dares, con objeto de financiar así la labor que desarrollan, y también pueden
cobrar por emitir certificados de que un determinado producto o servicio
se ha desarrollado de acuerdo con el estándar.
Discriminación. Los estándares abiertos y las organizaciones que los desa-
rrollan no favorecen de ningún modo a uno u otro implementador sobre los
restantes.
Extensión o creación de subconjuntos de un estándar. Los estánda-
res abiertos pueden ser extendidos o bien presentados como subconjuntos
del estándar original.
Prácticas predatorias. Los estándares abiertos pueden tener licencias que
requieran a todo aquel que desarrolle una extensión de dicho estándar la
publicación de información acerca de esa extensión, y el establecimiento
de una licencia dada para todos aquellos que creen, distribuyan y vendan
software compatible con ella. Un estándar abierto no puede prohibir de otro
modo el desarrollo de extensiones.
Para tener una noción de lo que en la práctica realmente significa el uso de
estándares abiertos en el campo de los SIG y las IDE, podemos ver la figura 32.1,
donde se representa el esquema de una arquitectura no interoperable. Es decir,
una arquitectura que no se basa en este tipo de estándares.
Los datos que se encuentran en cada base de datos son accesibles únicamente a
través de un único cliente, que es aquel correspondiente al servidor que ofrece servi-
cios basados en esos datos. Los restantes datos quedan fuera del alcance de ese clien-
te, ya que no es capaz de acceder a ellos. Las diferentes soluciones cliente–servidor
crean en esta situación un conjunto de islas tecnológicas, cada una completamente
independiente y sin posibilidad alguna de interactuar con las restantes.
Entre los principales inconvenientes de una arquitectura no interoperable como
la representada podemos citar los siguientes:
Desperdicio de recursos. Cada servicio debe gestionar sus propio con-
junto de datos, lo cual requiere abundantes recursos y no es sencillo, además
de implicar un elevado coste.
Estándares 785
En este caso, existe un servidor que es el que gestiona y ofrece los servicios
para cada base de datos, pero a él pueden acceder todos los clientes, ya que por el
hecho de estar basados en estándares abiertos es posible una comunicación plena
entre dos cualesquiera de ellos.
En esta situación, un usuario puede emplear su cliente favorito (siempre que este
implemente los estándares pertinentes) para acceder a muchos servicios distintos,
o bien puede utilizar varios clientes para acceder a unos mismos datos, eligiendo
en cada momento el que más le convenga según sus necesidades. Las posibilidades
de trabajo se multiplican cuando la arquitectura del sistema se fundamenta en
estándares abiertos.
Las ventajas no son solo para los usuarios, sino también para los desarrolladores.
786 Sistemas de Información Geográfica
32.3.2. ISO
ISO [418] es una organización internacional dedicada a la elaboración de están-
dares no solo en el ámbito geográfico, sino en todas las áreas. ISO es responsable,
por ejemplo, de estándares bien conocidos y aplicados en la industria actual, tales
Estándares 787
32.3.3. W3C
El Consorcio World Wide Web (W3C) es un consorcio internacional donde las or-
ganizaciones miembro, personal a tiempo completo y el público en general, trabajan
conjuntamente para desarrollar estándares Web. Según su propia definición[420], la
misión del W3C es «guiar la Web hacia su máximo potencial a través del desarrollo
de protocolos y pautas que aseguren el crecimiento futuro de la Web».
El W3C no guarda una relación directa con los SIG, pero parece lógico pensar
que todo aquello que se haga en el seno de Internet debería acomodarse a las
pautas establecidas por este consorcio, en especial si lo que se desea es maximizar
la interoperabilidad, como ya hemos visto que resulta de interés en el ámbito SIG.
Puesto que la mayoría de los estándares abiertos que vamos a ver en este capítulo
se aplican sobre tecnologías que operan en la red, estos se han de fundamentar
siempre que sea posible en otros existentes desarrollados por el W3C, o al menos
seguir las recomendaciones de este organismo.
Visto de otro modo, el W3C persigue objetivos similares a los de las organi-
zaciones que elaboran estándares para la información geoespacial, pero su campo
de actuación es la red en términos generales.
De entre todos los elementos definidos por el W3C, resulta de especial impor-
tancia el lenguaje XML (eXtensible Markup Language1 ). XML no es un lenguaje
en sí, sino que permite definir la gramática de otros lenguajes. Es lo que se conoce
como metalenguaje. De este modo, puede utilizarse para definir reglas para crear
formas de expresión que permitan recoger cualquier tipo de información. Esto hace
que pueda emplearse para el intercambio de información de toda clase, y como
veremos es la base de la mayoría de estándares a tratar en este capítulo.
1
Lenguaje de Marcado Extensible
788 Sistemas de Información Geográfica
Entrar en detalles acerca de XML escapa del ámbito de este libro. No obstante,
para aquellos que deseen saber más, Internet está llena de buenas referencias libres
sobre XML, como por ejemplo [421].
Cada uno de los objetos derivados de la clase raíz Geometry tiene además a su vez
sus propios métodos específicos, siempre dentro de alguno de los grupos anteriores.
Con estos objetos y sus métodos se da respuesta a todas las necesidades que apa-
recen en la realización de consultas sobre bases de datos espaciales. La especificación
SFS permite así dotar de potencia al lenguaje de consulta SQL y hacerlo de forma
estandarizada para ampliar la interoperabilidad en las operaciones de consulta.
Algunos SIG permiten este uso, y soportan GML como un formato más de
archivo. No obstante, no es una práctica común, ya que, pese a las ventajas de ser
un estándar aceptado, GML es un formato de fichero de tipo texto (está basado en
XML) y produce archivos de gran tamaño. Para este uso, es más habitual recurrir
a algún otro formato.
GML es un lenguaje extremadamente genérico, que permite recoger tanto datos
ráster como vectoriales y hacerlo con mucha flexibilidad. Permite, por ejemplo,
recoger datos vectoriales sin que exista una geometría asociada, es decir, sim-
plemente almacenando unos atributos como si se tratara de una base de datos
no espacial. Esta gran flexibilidad, que es uno de los puntos fuertes de GML, es
también uno de sus inconvenientes, ya que la especificación es muy compleja y
difícil de implementar en su totalidad.
La versión más reciente de GML es GML3, aunque GML2 es la más extendida.
Existe un dialecto conocido como Simple Features Protocol que trata de so-
lucionar el problema de la excesiva complejidad de GML3, ofreciendo las ventajas
más importantes de este frente a GML2, pero sin incorporar todos sus elementos.
Resumen
Punto de contacto para los metadatos
Fecha de los metadatos
Organismo responsable de los datos
Localización
Juego de caracteres de los datos
Resolución espacial
Formato de distribución
Tipo de representación espacial
Sistema de referencia
Recurso en línea
Identificador del fichero de metadatos
Nombre del estándar de metadatos
Versión del estándar de metadatos
Idioma de los metadatos
Juego de caracteres de los metadatos
En España, existe el Núcleo Español de Metadatos (NEM), un subconjunto
de la ISO 19115 definido por un subgrupo de trabajo de la IDEE.
Además de servir datos, pueden servirse procesos sobre esos datos, de tal forma
que existan procesos remotos a los que los clientes pueden acceder. También debe
estandarizarse la forma de acceso a estos servicios y cómo los clientes efectuarán
las peticiones de procesos y la transmisión o definición de los datos que han de
tomarse para esos procesos.
32.9. Resumen
Los estándares abiertos son básicos en el entorno de las IDE para garantizar
una correcta comunicación entre clientes y servidores, y su adopción implica una
larga serie de ventajas, aumentando las posibilidades de uso de la IDE y la potencia
de los datos y herramientas que se incluyen en estas.
Existen diversas organizaciones que desarrollan estos estándares, siendo OGC
e ISO las más relevantes en el campo de la información geográfica, y W3C en el
campo de la World Wide Web. Estás organizaciones han creado estándares que
son de aplicación en diversas tareas.
Para la codificación y almacenamiento de la información geográfica encontra-
mos estándares a nivel conceptual como SFS, y otros para la propia codificación
y creación de archivos como GML. Este último es el empleado también para la
transmisión de información geográfica según el estándar WFS, definido para el
trabajo con datos vectoriales. Para servir coberturas (en la especificación actual
equivalentes a datos ráster regulares), encontramos el estándar WCS.
Existen igualmente estándares para mapas, como WMS, que a su vez se apoyan
en los anteriores para obtener los datos a representar, y en otros como SLD para
establecer los parámetros de esa representación.
Los estándares se encuentra interrelacionados entre sí y se apoyan unos en
otros. El conjunto de todos ellos permite en el seno de una IDE el trabajo fluido
y la interoperabilidad en todas las operaciones que se realizan.
Bibliografía
[1] C.D. Tomlin. Geographic information systems and cartographic modelling.
Prentice Hall., 1990.
[3] http://www.gis.com/whatisgis/index.html.
[4] G. Korte. The GIS Book (5th Ed. Rev.). Autodesk Press, 2001.
[6] ESRI. Gis and cad-the right tool for the job. an esri white paper. Technical
report, ESRI, 2002. Disponible en http://www.systematics.co.il/gis/
Support/Download/July2007/GIS_and_CAD.pdf.
[9] http://gislounge.com/the-components-of-gis-evolve.
[13] http://maps.google.com.
[14] http://earth.google.com.
[15] I. Heywood. An introduction to Geographical Information Systems.
Longman, 1998.
[21] M. Goodchild and R. Haining. Gis and spatial data analysis: Converging
perspectives. Journal of Economics, 83(1):363–385, October 2003.
Disponible en http://www.geog.ucsb.edu/~good/papers/387.pdf.
[24] www.epsg.org.
[26] N. S-N. Lam and D. A. Quattrochi. On the issues of scale, resolution, and
fractal analysis in the mapping sciences. Professional Geographer, 44, 1992.
[31] Information science: definition and scope. In J. Williams and Carbo T.,
editors, Information Science: Still an Emerging Discipline. Cathedral
Publishing, 1997.
[33] http://es.wikipedia.org/wiki/Continuidad_(matematica).
[35] M.F. Goodchild and K.K. Kemp. Ncgia core curriculum in gis, 1990.
Disponible en http://www.ncgia.ucsb.edu/giscc/.
[36] B. Diaz and S. Bell. Spatial Data Processing using Tesseral Methods.
Natural Environment Research Council, Reading, UK, 1986.
[38] J. Husdal. How to make a straight line square - network analysis in raster
gis. Master’s thesis, University of Leicester, UK, 2000. Disponible en
http://husdal.com/mscgis/thesis/.
[40] T.K Peucker, R.J. Fowler, J.J. Little, and D.M. Mark. The triangulated
irregular network. In Proceedings, American Society of Photogrammetry:
Digital Terrain Models (DTM) Symposium, St. Louis, Missouri, May 9-11,,
pages 516–540, 1978.
[43] G.M. Morton. A computer oriented geodetic data base; and a new technique
in file sequencing. Technical report, IBM Ltd, 1966.
[44] R. Finkel and J.L. Bentley. Quad trees: A data structure for retrieval on
composite keys. Acta Informatica, 4(1):1–9, 1974.
[46] A. Buchmann, O. Gunther, T.R. Smith, and Y.-F. Wang. Design and
Implementation of Large Spatial Databases. Number 409 in Unit Notes in
Computer Science. 1990.
[50] M.Tt. Lillesand and W. R. Kiefer. Remote Sensing and Image Interpretation,
3rd Edition. John Wiley & Sons, Inc., 1997.
[52] http://www.pucp.edu.pe/biblioteca/docs/elibros_pucp/medina_
hugo/Medina_Fisica2_Cap3.pdf.
[53] http://es.wikipedia.org/wiki/Ley_de_Stefan-Boltzmann.
[54] http://landsat7.usgs.gov/index.php.
[55] http://www.ccrs.nrcan.gc.ca/resource/tutor/gsarcd/downldss_e.
php.
[58] http://www.geoeye.com/products/imagery/ikonos/default.htm.
[59] http:/www.spotimage.fr.
[60] http://www.digitalglobe.com/about/quickbird.html.
[61] http://edcdaac.usgs.gov/dataproducts.asp.
[62] http://www.asc-csa.gc.ca/eng/satellites/radarsat1/.
[63] http://earth.esa.int/ers/satconc/satconc2.html.
[64] http://seamless.usgs.gov.
[65] http://www2.jpl.nasa.gov/srtm.
[68] http://www.marine.csiro.au/csquares/.
[69] http://en.wikipedia.org/wiki/Geocoding.
[71] http://www.spotimage.fr/web/en/807-spot-3d.php.
[74] http://www.cartesia.org/article.php?sid=222.
[75] http://grass.itc.it/gdp/grass5tutor/HTML_en/c815.html.
[76] Dod world geodetic system 1984, its definition and relationship with local
geodetic systems. Technical report, National Imagery and Mapping Agency,
1997.
[77] F. Van Graas and M. Braasch. Gps interferometric attitude and heading
determination: Initial flight test results. Navigation, 38:297–316, 1991.
[79] http://es.wikipedia.org/wiki/Sistema_de_posicionamiento_
global.
[80] http://www.trimble.com/gps/index.shtml.
[81] http://www.how-gps-works.com/.
[82] http://www.openstreetmap.org.
[84] Chris Rizos and Shaowei Han. Precise kinematic applications of gps:
prospects and challenges. B. Ci. Geodésicas, 3:34–40, 1998. Disponible
en http://calvados.c3sl.ufpr.br/ojs2/index.php/bcg/article/
viewFile/1479/1233.
[86] http://www.usace.army.mil/publications/eng-manuals/
em1110-1-1003/c-9.pdf.
[87] Karen Steede-Terry. Integrating GIS and the Global Positioning System.
ESRI Press, 2000.
[92] J. Bryan Mercer. Comparing lidar and ifsar: What can you ex-
pect? In Proceedings, Photogrammetric Week, 2001. Disponible
en http://www.intermaptechnologies.com/PDF_files/paper_
Stuttgart01_JBM3.pdf.
[95] Kenneth E. Foote and Donald J. Huebner. Error, accuracy, and precision.
http://www.colorado.edu/geography/gcraft/notes/error/error.
html, 2000.
[96] Pepijn van Oort. Spatial data quality: from description to appli-
cation. Netherlands Geodetic Commission, 2005. Disponible en
http://www.ncg.knaw.nl/Publicaties/Geodesy/pdf/60Oort.pdf.
[101] Chang-Tien Lu, Dechang Chen, and Yufeng Kou. Algorithms for spatial
outlier detection. In Proceedings of the Third IEEE International Conference
on Data Mining, 2003.
[102] Shashi Shekhar, Chang-Tien Lu, and Pusheng Zhang. A unified approach
to detecting spatial outliers. GeoInformatica, 7(2), 2003. Disponible en
http://www.spatial.cs.umn.edu/paper_ps/geoinfo.pdf.
[108] http://ocw.uoc.edu/informatica-tecnologia-y-multimedia/
bases-de-datos/materiales/.
[110] E.F. Codd. A relational model of data for large shared data banks.
Communications of the ACM, 13(6):377–387, 1970.
[112] http://www.oei.eui.upm.es/Asignaturas/BD/DYOBD/ERE_texto.pdf.
[120] A. Rosenfeld and Thurston M. Edge and curve detection for visual scene
analysis. IEE Trans. on Computers, 20-c(5):562–569, 1971.
[121] B.B. Mandelbrot. The Fractal Geometry of Nature. W.H. Freeman and
Company, 1982.
[122] S Openshaw. The Modifiable Areal Unit Problem. Concepts and Techniques
in Modern Geography 38. GeoBooks., 1983.
[125] H.D. Reynolds. The modifiable area unit problem: empirical analysis by
statistical simulation. PhD thesis, University of Toronto, 1998.
[126] W.R. Tobler. A computer movie simulating urban growth in the detroit
region. Economic Geography, 46(2):234–240, 1970.
[130] E. Haines. Graphics Gems IV, chapter Point in Polygon Strategies, pages
24–46. Academic Press, 1994.
[131] D. V. Pullar and M. J. Egenhofer. Toward formal definitions of topological
relations among spatial objects. In Proceedings Third International
Symposium on Spatial Data Handling, Sydney, Australia, August 17-19,
pages 225–241, 1988.
[134] A.U. Frank and D.M. Mark. Geographical Information Systems: Principles
and Applications, chapter Language issues for GIS, pages 147–163.
Longmans, 1991.
[139] K.A. Nedas, M.J. Egenhofer, and D. Wilmsen. Metric details of topological
line-line relations. International Journal of Geographical Information
Science, 21(1):21–48, 2007.
[141] http://www.colimbo.net/documentos/documentacion/208/Tutorial_
SQL_basico.pdf.
[142] M.J. Egenhofer. Spatial sql: a query and presentation language. IEEE
Transactions on Knowledge and Data Engineering, 6:86–95, 1994. Disponible
en http://www.spatial.maine.edu/~max/SSQL.pdf.
[143] http://www.mat.uniroma2.it/~nardelli/publications/ICCI-93.
pdf.
[144] www.spatial.maine.edu/~max/SSQL.pdf.
[145] http://www-users.itlabs.umn.edu/classes/Spring-2006/
csci4707/B+Trees.pdf.
[148] J. P. Cole and C. A. M. King. Quantitative Geography. John Wiley & Sons,
1968.
[151] R. Bachi. Standard distance measures and related methods for spatial
analysis. Papers, Regional Science Association, 10:83–132., 1963.
[155] N.H. Kuiper. Test concerning random points on a circle. Proc K. Ned Akad
Ser A: Math Sci 63, 63:38–47, 1960.
[156] J.S. Rao. Some contributions to the analysis of circular data. PhD thesis,
Indian Statistical Institute, Calcutta., 1969.
[157] G.S. Russell and D.J. Levitin. An expanded table of probability values
for rao’s spacing test. Communications in statistics: Simulation and
computation, 24:879–888, 1995.
[158] N.A.C. Cressie. Statistics for spatial data. John Wiley & Sons, 1991.
[159] F. David and P. Moore. Notes on contagious distributions in plant
populations. Annals of Botany, 18:47–53, 1954.
[160] J. Douglas. Clustering and aggregation. Sankhya, 37:398–417., 1975.
[161] M. Morisita. Measuring of the dispersion and analysis of distribution patterns.
Memoires of the Faculty of Science, Kyushu University, 2:215–235., 1959.
[162] P. J. Evans and F. C. Evans. Distance to nearest neighbour as a measure
of spatial relations in populations. Ecology, 35:445–453, 1954.
[163] K. P. Donnelly. Simulations to determine the variance and edge efect of
total nearest neighbour distance. In I. Hodder, editor, Simulation Studies
in Archaeology, pages 91–95. Cambridge University Press, 1978.
[164] B.D. Ripley. Modelling spatial patterns. Journal of the Royal Statistical
Society. Series B 30, pages 172–192, 1977.
[165] D. R. Cox and V. Isham. Point Processes. Chapman & Hall, 1980.
[166] L. Anselin. Spatial data analysis with gis: an introduction to application in
the social sciences, technical report 92-10. Technical report, NCGIA, 1992.
Disponible en http://citeseerx.ist.psu.edu/viewdoc/download?
doi=10.1.1.75.9557&rep=rep1&type=pdf.
[167] P. Moran. The interpretation of statistical maps. Journal of the Royal
Statistical Society B 10, 24351., 1948.
[168] R. Geary. The contiguity ratio and statistical mapping. The Incorporated
Statistician, 5:115–145, 1954.
[169] A.D. Cliff and JK Ord. Spatial Autocorrelation. Pion, 1973.
[170] A. Getis and J.K. Ord. The analysis of spatial association by use of distance
statistics. Geographical Analysis, 24:189–206, 1992.
[171] L. Anselin. The local indicators of spatial association: Lisa. Geographical
Analysis, 27:93–115, 1995. Disponible en http://www.drs.wisc.edu/
documents/articles/curtis/cesoc977/Anselin1995.pdf.
[172] E.H. Isaaks and R.M. Srivastava. Applied Geostatistics. Oxford University
Press, New York, 1989.
[173] P. Goovaerts. Geostatistics for Natural Resources Evaluation (Applied
Geostatistics). Oxford University Press, New York, 1997.
[174] M. R. Dunlavey. Efficient polygon-filling algorithms for raster displays.
ACM Trans. Graph., 2(4):264–273, 1983.
[175] http://www.cimec.org.ar/twiki/pub/Cimec/ComputacionGrafica/
Rasterizacion.pdf.
[179] R.H. Myers. Classical and Modern Regression with Applications. PWS-Kent
Publishing, 1990.
[183] D.G. Krige. A statistical approach to some mine valuations and allied
problems at the witwatersrand. Master’s thesis, University of Witwatersrand,
1951.
[186] T. Hengl. Finding the right pixel size. Computers & Geosciences,
32(9):1283–1298, 2006.
[187] B.W. Avery. Soil survey methods: a review. technical monograph no. 18.
Technical report, Soil Survey & Land Resource Centre, Silsoe., 1987.
[188] http://spatial-analyst.net/pixel.php.
[189] B.D. Silverman. Density estimation for statistics and data analysis.
Chapman and Hall, 1986.
[190] W.H. Wischmeier and D.D. Smith. Predicting Rainfall Erosion Losses.
Agriculture Handbook 537. United States Department of Agriculture.
Science and Education Administration., 1978.
[191] R. R Yager. On ordered weighted averaging aggregation operators in
multi-criteria decision making. IEEE Trans. on SMC, 18:183–190, 1988.
[192] USDA. Technical release 55 (tr-55) urban hydrology for small watersheds,
second edition. Technical report, Natural Resources Conservation Service,
Conservation Engineering Division., 1986.
[193] D R. Caldwell. Extending map algebra with flag operators.
In Proceedings GeoComputation 2000, 2000. Disponible en
http://www.geocomputation.org/2000/GC007/Gc007.htm.
[194] J. Wood. The Geomorphological Characterisation of Digital Elevation
Models. Ph.d.thesis, University of Leicester, 1996.
[195] K. McGarigal, S.A. Cushman, Neel M.C., and E. Ene. Fragstats: Spatial
pattern analysis program for categorical maps. computer software program
produced by the authors at the university of massachusetts, amherst. http://
www.umass.edu/landeco/research/fragstats/fragstats.html, 2002.
[196] K. Turkowski. Filters for common resampling tasks. In Graphic Gems,
pages 147–165. Academic Press Professional,Inc, 1990.
[197] G. Camara, D. Palomo, and R.C. Souza. Towards a generalized
map algebra: principles and data types. In Proceeding VII Sim-
posio Brasileiro de GeoInformatica., 2005. Disponible en http:
//citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.92.1932.
[198] M. Takeyama and H. Couclelis. Map dynamics: integrating cellular auto-
mata and gis through geo-algebra. International Journal of Geographical
Information Science, 11:73–91, 1997.
[199] G.X. Ritter, J. Wilson, and J. Davidson. Image algebra: An overview.
Computer Vision, Graphics and Image Processing, 49:297–331, 1990.
[200] R.J. Pike. Geomorphometry — progress, practice, and prospect. Zeitschrift
für Geomorphologie, 101:221–238, 1995.
[201] R.J. Pike. Geomorphometry — diversity in quantitative surface analysis.
Progress in Physical Geography, 24(1):1–20, 2000.
[202] S. Rasemann, J. Schmidt, L. Schrott, and R. Dikau. Geomorphometry
in mountain terrain. In M. P. Bishop and J. F. Shroder, editors, GIS &
Mountain Geomorphology, pages 101–145. Springer, Berlin, 2004.
[203] A.M. Felicísimo. Modelos digitales del terreno. Introducción y aplicaciones
en las ciencias ambientales. Pentalfa Ediciones, 1994. Disponible en
http://www.etsimo.uniovi.es/~feli/pdf/libromdt.pdf.
[204] Severn tidal tributaries catchment flood management plan scoping stage.
Technical report, UK: Environment Agency., 2005.
[205] Y. Gyasi-Agyei, G. Willgoose, and F. P. De Troch. Effects of vertical
resolution and map scale of digital elevation models on geomorphological
parameters used in hydrology. Hydrol. Processes, 9:363–382, 1995.
[206] J.P. Walker and G.R. Willgoose. On the effect of dem accuracy on hydrology
and geomorphology models. Wat. Resour. Res, 35(7):2259–2268, 1998.
[207] A. Sindayihebura, M. Van Meirvenne, and S. Nsabimana. Comparison
of methods for deriving a digital elevation model from contours and
modelling of the associated uncertainty. In M. Caetano and M. Painho.,
editors, Proceedings 7th International Symposium on Spatial Accuracy
Assessment in Natural Resources and Environmental Sciences, 2006.
Disponible en http://www.spatial-accuracy.org/system/files/
Sindayihebura2006accuracy.pdf.
[208] M.F. Hutchinson. A new procedure for gridding elevation and stream
line data with automatic removal of spurious pits. Journal of Hydrology,
106:211–232, 1989.
[209] A. Felicísimo. Parametric statistical method for error detection in digital
elevation models. ISPRS Journal of Photogrammetry and Remote Sensing,
49(4):29–33, 1994.
[210] K.H. Jones. A comparison of eight algorithms used to compute slopes as
a local property of the dem. In Proceedings of the GIS Research UK 1996
Conference, pages 7–12, 1996.
[211] J. Schmidt, I. Evans, and J. Brinkmann. Comparison of polynomial models
for land surface curvature calculation. International Journal Geographical
Information Science, 17:797–814, 2003.
[212] L.W. Zevenbergen and C.R. Thorne. Quantitative analysis of land surface
topography. Earth Surface Processes Landforms, 12:47–56, 1987.
[213] P.A. Shary. Land surface in gravity points classification by a complete
system of curvatures. Mathematical Geology, 27(3):373–390, 1995.
[214] B.K.P. Horn. Hill shading and the reflectance map. Proceedings IEEE,
69(1):14–47, 1981. Disponible en http://citeseerx.ist.psu.edu/
viewdoc/summary?doi=10.1.1.63.5209.
[215] D.B. Beasley and L.F Huggins. ANSWERS: User’s manual. U.S.
EPA-905/9-82-001. U.S. EPA, Chicago, IL, 1982.
[216] M.R. Travis, G.H. Elsner, W.D. Iverson, and C.G. Johnson. VIEWIT:
computation of seen areas, slope, and aspect for land-use planning. USDA,
Berkeley, California, 1975.
[217] J. K. Berry. Beyond Mapping: Concepts, Algorithms, and Issues in GIS.
John Wiley & Sons, 1996.
[218] R.D. Hobson. Surface roughness in topography: a quantitative approach.
In R.J. Chorley, editor, Spatial analysis in geomorphology, pages 221–245.
Harper & Row, 1972.
[219] J.S. Jenness. Calculating landscape surface area from digital elevation
models. Wildlife Society Bulletin, 32(3):829–839, 2004. Disponible en
http://www.jennessent.com/downloads/WSB_32_3_Jenness.pdf.
[220] J.C. Gallant and J.P. Wilson. Tapes-g: a grid-based terrain analysis program
for the environmental sciences. Computers & Geosciences, 22(7):713–722,
1996.
[221] P.A. Shary, L.S. Sharaya, and A.V. Mitusov. Fundamental quantitative
methods of land surface analysis. Geoderma, 107(1-2):1–32, 2002.
[222] D. King, H. Bourennane, M. Isambert, and J.J. Macaire. Relationship of
the presence of a non-calcareous clay–loam horizon to DEM attributes in
a gently sloping area. Geoderma, 89(1-2):95–111, 1999.
[223] R. Koethe and F. Lehmeier. Sara, system zur automatischen relief-
analyse,benutzerhandbuch. 1996.
[224] P.A. Shary, L.S. Sharaya, and A.V. Mitusov. The problem of scale-specific
and scale-free approaches in geomorphometry. Geografia Fisica e Dinamica
Quaternaria, 28(1):81–101, 2005.
[225] D. Riaño, E. Chuvieco, J. Salas, and I. Aguado. Assessment of different topo-
graphic corrections in landsat-tm data for mapping vegetation types. IEEE
Transactions on Geoscience and Remote Sensing, 41(5):1056–1061, 2003. Dis-
ponible en http://www.geogra.uah.es/emilio/pdf/Riano2003b.pdf.
[226] John P. Wilson and John C. Gallant. Terrain Analysis: Principles and
Applications. John Wiley & Sons, Inc., 2000.
[227] J. Krcho. Morphometric analysis of relief on the basis of geometric
aspect of field theory. Acta Geographica Universitatis Comenianae,
Geographico-Physica, 1(1):7–233, 1973.
[228] J. Krcho. Teoretická concepcia a interdisciplinarne aplikacie komplexného
digitalneho modelu reliéfu pri modelovanï dvojdimenzionalnych poli.
Geografický casopis, 35(3):265–291, 1983.
[230] J. Fairfield and P. Leymarie. Drainage networks from grid digital elevation
models. Water Resources Research, 27(5):709–717, 1991.
[233] P Holmgren. Multiple flow direction algorithms for runoff modelling in grid
based elevation models: An empirical evaluation. Hydrological processes,
8:327–334, 1994.
[234] D.G. Tarboton. A new method for the determination of flow directions and
upslope areas in grid digital elevation models. Water Resources Research,
33(2):309–319, 1997.
[235] N.L. Lea. An aspect driven kinematic routing algorithm. In A.J. Parsons
and A.D. Abrahams, editors, Overland flow: Hydraulics and erosion
mechanics, pages 147–175. Chapman & Hall, New York, 1992.
[241] L. Martz and J. Garbrecht. An outlet breaching algorithm for the treatment
of closed depressions in a raster DEM. Computers and Geosciences,
25(7):835–844, 1999.
[242] O. Planchon and F. Darboux. A fast, simple and versatile algorithm to fill the
depressions of digital elevation models. Catena, 46:159–176, 2001. Disponible
en http://www-rocq.inria.fr/estime/DYNAS/PDF/planchon01b.pdf.
[252] R. Turcotte, J.P. Fortin, A.N. Rousseau, S. Massicotte, and J.P. Villeneuve.
Determination of the drainage structure of a watershed using a digital
elevation model and a digital river and lake network. Journal of Hydrology,
240:225–242, 2001.
[253] S. Shreve, R.L. Statistical law of stream numbers. J. Geol, 74:17–37, 1966.
[254] L. Garrote and R.L. Bras. A distributed model for real–time flood forecasting
using digital elevation models. Journal of Hydrology, 167:279–306, 1995.
[256] K.J. Beven and M.J. Kirkby. A physically based, variable contributing area
model of basin hydrology. Hydrological Sciences Bulletin, 24(1):43–69, 1979.
Disponible en http://iahs.info/hsj/240/hysj_24_01_0043.pdf.
[257] I.D Moore and J.P. Wilson. Length-slope factors for the revised universal
soil loss equation: simplified method of estimation. Journal of Soil and
Water Conservation, 47:423–428, 1992.
[261] E.E. Dikau, R. Brabb and R.M Mark. Landform classification of New
Mexico by computer. U.S. Dept Interior, U.S. Geological Survey., 1991.
[262] E.H. Hammond. Small scale continental landform maps. Annals of
Association of American Geographers, 44:32–42, 1954.
[263] B.J. Irvin, S.J. Ventura, and Slater B.K. Landform classification for
soil-landscape studies. In Proceedings of the Annual ESRI User Conference.
ESRI, 1995. Disponible en http://proceedings.esri.com/library/
userconf/proc95/to200/p153.html.
[265] P.A. Burrough, P.F.M. van Gaans, and R. A. MacMillan. High resolution
landform classification using fuzzy-k-means. Fuzzy Sets and Systems,
113(1):37–52, 2000.
[270] Y. J. Kaufman. The atmospheric effects on remote sensing and its correction.
In G. Asrar, editor, Theory and Applications of Optical Remote Sensing,
pages 336–428. John Wiley & Sons, 1989.
[275] L. Lucchese and S.K. Mitra. A new method for color image equalization.
In Proc. of 2001 Int’l Conference on Image Processing (ICIP 2001),
Thessaloniki, Greece, Sept. 2001, Vol. I, 133-136.
[277] http://en.wikipedia.org/wiki/HSL_color_space.
[279] J.D. Foley, A. van Dam, S.K. Feiner, and J.F. Hughes. Computer graphics:
principles and practice. Addison-Wesley Publishing Company, Inc, 1997.
[280] N.E.G. Roller and S. Cox. Comparison of landsat mss and merged mss/rbv
data for analysis of natural vegetation. In Proc. of the 14th International
Symposium on Remote Sensing of Environment, San Jose, Costa Rica,
23-30 April, pages 1001–1007, 1980.
[281] http://www.ph.tn.tudelft.nl/Courses/FIP/noframes/
fip-Morpholo.html.
[282] http://wgpi.tsc.uvigo.es/libro/procesim/procesim.htm.
[283] T.Y. Zhang and C.Y. Suen. A fast parallel algorithm for thinning digital
patterns. Communications of the ACM, 27(3):236–329, 1984.
[300] Y. Chen, R. Wang, and J. Qian. Extracting contour lines from common-
conditioned topographic maps. IEEE Transactions on Geoscience and
Remote Sensing, 44(4):1048–1057, 2006.
[302] D. Greenlee. Raster and vector processing for scanned line work.
Photogrammetric Engineering and Remote Sensing, 53(10):1383–1387, 1987.
[304] P. Brunet and LL. Pérez Vidal. Smooth contour line construction with
spline interpolation. Questiio, 8(3):133–144, 1984. Disponible en http://
www.raco.cat/index.php/Questiio/article/viewFile/26441/26275.
[305] M.A. Sabin. Contouring. a review of methods for scattered data. In Mat-
hematical methods in computer graphics and design. Academic Press, 1980.
[323] D.H. Douglas and T.K. Peucker. Algorithms for the reduction of the
number of points required to represent a line or its character. The American
Cartographer, 10(2):112–123, 1973.
[328] Chaoqing Yu. Extensions to least-cost path algorithms for roadway planning.
International Journal of Geographical Information Systems, 17(4):361–376,
2003.
[330] http://users.utu.fi/harju/graphtheory/graphtheory.pdf.
[331] http://www.emis.de/monographs/Diestel/en/GraphTheoryII.pdf.
[335] Joseph. B. Kruskal. On the shortest spanning subtree of a graph and the
traveling salesman problem. Proceedings of the American Mathematical
Society, 7(1):48–50, 1956.
[336] Jaroslav Nesetril, Eva Milkova, and Helena Nesetrilova. Otakar boruvka
on minimum spanning tree problem (translation of both 1926 papers,
comments, history). DMATH: Discrete Mathematics, 233, 2001. Disponible
en http://citeseer.ist.psu.edu/nesetril00otakar.html.
[338] K.R. Gabriel and R.R. Sokal. A new statistical approach to geographic
variation analysis. Systematic Zoology, 18:259–278, 1969.
[339] http://www.tsp.gatech.edu/index.html.
[341] J.A. Bendiktsson, P.H. Swain, and O.K. Ersoy. Neural network approaches
versus statistical methods on classification of multisource remote sensing
data. IEEE Trans. Geosci. Remote Sensing, 28(4):540–552, 1990. Disponible
en http://notendur.hi.is/~benedikt/neuralvsstat.pdf.
[345] G. M. Foody. Approaches for the production and evaluation of fuzzy land
cover classifications from remotely sensed data. Int. J. Remote Sensing,
17(7):1317–1340, 1996.
[349] J. Anderson, E. Hardy, Roach. J., and R. Witmer. A land use and
land cover classification system for use with remote sensor data. Pro-
fessional Paper 964, U.S. Geological Survey, 1976. Disponible en
http://landcover.usgs.gov/pdf/anderson.pdf.
[350] M. F. Goodchild. Integrating gis and remote sensing for vegetation analysis
and modelling: methodological issues. J. Veg. Sci., 5:615–26, 1994.
[357] H.J. Zimmermann. Fuzzy Set Theory and Its Applications, Fourth Edition.
Kluwer. Kluwer Academic Publishers, 2001.
[358] D.J. Maguire and M. Batty, Goodchild. GIS, spatial analysis and modeling.
ESRI Press, 2005.
[366] http://www.sectormatematica.cl/librosmat/algebra_lineal.pdf.
[367] http://recursos.gabrielortiz.com/art.asp?Info=062a.
[368] http://www.w3.org/Addressing/URL/url-spec.txt.
[369] M. J. Kraak and A. Brown, editors. Web cartography. Francis and Taylor,
2001.
[370] http://www.adaptivepath.com/ideas/essays/archives/000385.php.
[371] http://www.guiarepsol.com.
[372] http://maps.google.com/help/maps/casestudies/.
[374] A. J. Brimicombe. Gis - where are the frontiers now? In Proceeding GIS
2002, pages 33–45, 2002.
[379] A-M. Nivala and L.T. Sarjakoski. An approach to intelligent maps: Context
awareness. In MobileHCI’03, 5th International Conference on Human
Computer Interaction with Mobile Devices and Services, September 8th,
2003, Udine, Italy, 2003. Disponible en http://www.comp.lancs.ac.uk/
~kc/mguides03/pdfs/Nivala_Sarjakoski_final-x.pdf.
[392] Campbell H.J. and I. Masser. Gis in local government; some findings from
great britain. International Journal of Geographical Information Systems,
6:529–46, 1992.
[396] Anon. Platform preference varies with size of gis user base. GIS World,
9:16, 1996.
[398] Douglas D. Nebert, editor. Recetario IDE. SGDI, 2004. Disponible en http:
//redgeomatica.rediris.es/metadatos/publica/recetario/html/.
[399] http://inspire.jrc.ec.europa.eu/.
[401] B. Kok. The strategic role of nmas in sdi development and im-
plementation. In FIG Working Week, 2009. Disponible en http:
//memberservices.gsdi.org/files/index.php?artifact_id=622.
[408] http://www.idee.es.
[411] http://www.fgdc.gov/metadata.
[413] http://www.datafinder.org/metadata/orthos1997.htm.
[414] http://www.state.nj.us/dep/gis/digidownload/metadata/
statewide/placenam04.htm.
[415] R.L.G. Lemmens, A. Wytzisk, and R.A. de By. Integrating semantic
and syntactic descriptions to chain geographic services. IEEE internet
computing, 10(5):42.52, 2006.
[416] http://perens.com/OpenStandards/Definition.html.
[417] http://www.opengeospatial.org.
[418] http://www.iso.org/iso/home.html.
[419] http://www.isotc211.org/pow_all.htm.
[420] http://www.w3c.es/.
[421] http://en.wikibooks.org/wiki/XML_-_Managing_Data_Exchange.
[422] http://www.opengeospatial.org/standards/sfs.
[423] http://www.opengeospatial.org/standards/gml.
[424] http://www.opengeospatial.org/standards/wfs.
[425] http://www.opengeospatial.org/standards/filter.
[426] http://www.opengeospatial.org/standards/wms.
[427] http://www.opengeospatial.org/standards/sld.
[428] http://www.w3.org/Graphics/SVG/.
[429] http://www.opengeospatial.org/standards/wmc.