Sistema de Información Geográfica:
Un Sistema de Información Geográfica es fundamentalmente un conjunto de datos de partida y una serie de operadores o funciones analíticas que actúan sobre ellos para obtener resultados concretos. Sus funciones incluyen la lectura, edición, almacenamiento y gestión de datos espaciales; el análisis de esos datos (desde consultas hasta modelos complejos) y la generación de documentos con distintas salidas para presentar resultados. En geografía, la función de análisis . Un aspecto importante en la evolución de los SIG es su funcionalidad para la toma de decisiones espaciales. Se han denominado estos sistemas como SADE (Sistema de Apoyo para la Toma de Decisiones Espaciales), especialmente interesante por su potencial para resolver problemas territoriales complejos en los que intervienen diversos criterios. Los datos de partida en un proyecto SIG pueden ser espaciales (cartográficos) o temáticos (atributos).
Componentes básicos de los Sistemas de Información Geográfica:
A pesar de que frecuentemente tendemos a pensar que un SIG es solo un software, en realidad se establecen cuatro componentes básicos esenciales e indispensables. Si uno falla, afecta al conjunto del sistema. El hardware es el componente físico. El software es el componente lógico. Los datos requisito fundamental. Para desarrollar cualquier proyecto SIG se necesita tomar como partida una serie de datos georreferenciados o georreferenciables en soporte digital. El personal cualificado. Los procedimientos computarizados, que permiten y facilitan la captura, el análisis, la gestión o la representación de los datos espaciales.
Subsistemas de los Sistemas de Información Geográfica:
Desde una perspectiva más generalista que la de componentes, se identifican tres subsistemas principales en los SIG.El subsistema de análisis contiene métodos y procesos para el análisis de los datos geográficos.
Modelo de componentes híbrido según subsistemas:
Hay cinco componentes que se configuran del siguiente modo: Los datos se modelan en Los procesos son métodos enfocados al análisis de los datos. La visualización incluye métodos y fundamentos relacionados con la representación de los datos y la elaboración de cartografía temática. La tecnología comprende el software y hardware SIG. El factor organizativo hace referencia a las pautas y elementos relativos a la coordinación entre personas, datos y tecnología, y la comunicación entre ellos.
Disciplinas implicadas en el ámbito de los SIG:
Se pueden sintetizar en cinco disciplinas principales: Disciplinas tecnológicas: ciencias de la información, informática, matemáticas, estadística. Disciplinas de Tierra física: geología, ecología, ciencias ambientales. Disciplinas de Tierra social/humana: antropología, geografía, sociología. Estas ciencias y las del grupo anterior son potenciales usuarias de los SIG. Disciplinas cognitivas: psicología, IA. Geografía = disciplina integradora principal.
Funcionalidad SIG: una aproximación:
Su potencial depende de diversos factores: las prestaciones del programa, los conocimientos del usuario, la calidad de los datos, las capacidades del equipo informático, etc. Todos los componentes del sistema (hardware, software, datos, personal, procedimientos) actúan como condicionantes del rendimiento y funcionalidad que se obtiene. Es posible identificar cinco grandes tipos de funciones principales de los SIG: Entrada de datos = captura de información. Edición, integración y geoprocesamiento = tratar, modificar y corregir datos. Presentación/visualización = mapas, informes, cartografía final. Gestión de información = búsquedas y recuperación de datos. Las funciones de análisis espacial representan el potencial más amplio del SIG e incluyen operaciones muy diversas condicionadas por el modelo de datos. Abarca modelización cartográfica, superposiciones, análisis de distancias, etc. Análisis espacial ≠ geoproceso de edición. Existe una serie de preguntas tipo que todo SIG es capaz de responder: • Ubicación (¿Qué hay en…?): consulta de propiedades de un elemento concreto. • Condición (¿Qué elementos cumplen la condición…?): enfoque abierto sin consultar cada elemento. • Tendencia (¿Qué ha cambiado…?): analizar diferencias entre capas. • Rutas (¿Cuál es el mejor camino…?): análisis de redes. • Patrón (¿Cuál es el patrón…?): en referencia a la cartografía temática y pautas de distribución. • Simulaciones (¿Qué pasaría si…?): modelización prospectiva.
Modelos de datos espaciales:
Existen tres grandes tipos de modelos que resuelven la representación gráfica digital de un territorio: el modelo vectorial, el modelo raster y el formato imagen.
Modelo vectorial: Vectorial = secuencias de coordenadas XY
. El formato de archivos SIG ampliamente extendido (*.Shp) distingue en ficheros independientes los elementos puntuales, lineales y superficiales. Si se tiene un archivo .Shp, se sabe de antemano que su representación es vectorial y su geometría será de puntos, líneas o polígonos, pero no de geometrías mezcladas. Los vectoriales de puntos no poseen dimensión espacial (datos cero-dimensionales), solo posición. Reúnen pares de coordenadas, cada uno correspondiente a un elemento espacial individual. Los vectoriales de líneas tienen una dimensión espacial: la longitud (datos unidimensionales). Se componen de secuencias de coordenadas que configuran su trazado. Admiten medidas de longitud, dirección y sentido. Los vectoriales de polígonos poseen dos dimensiones: perímetro y área (datos bidimensionales). Se forman con la condición de que cada elemento comienza y termina en la misma posición espacial, formando una figura cerrada. Puede darse el caso de que un elemento esté dentro de otro o que tenga un área interior sin información (hueco). Los elementos superficiales admiten medidas de superficie, perímetro o centroide.
Modelo raster:
Los archivos raster suponen la reducción de la información espacial a una estructura de cuadrícula o malla formada por un número concreto de columnas (X) y filas (Y). La intersección de una columna y una fila se denomina celda y es la unidad mínima de información. Cada celda contiene un único dato que informa del valor de la variable en esa posición. En una . Los SIG pueden interactuar con varias capas raster con Ajuste perfecto = todas capas misma estructura. Puntos=1 celda, Líneas=cadenas, Polígonos=agrupamientos. Resolución = tamaño celda; menor celda = mejor calidad pero más archivo. La resolución adecuada está marcada por la escala de trabajo. Es posible hacer conversiones entre modelo raster y vectorial mediante procesos de rasterización y vectorización.
Formato imagen:
Formato imagen = respuesta óptica (escáner).
Visión comparada del potencial de los SIG raster y vectorial: Ventajas del modelo vectorial frente al raster:
Los ficheros vectoriales tienen mayor precisión geométrica frente a los raster, que están condicionados por el tamaño de celda elegido. Precisión vectorial > raster; raster depende de orientación. Los datos vectoriales se integran fácilmente con los atributos temáticos almacenados en bases de datos alfanuméricas.
Ventajas del modelo raster frente al vectorial:
Las funciones de análisis y cálculo son más eficaces en entorno raster. Raster = operaciones matemáticas simples; Vectorial = complejas (topología). El modelo raster proporciona mejor modelización de los fenómenos espacialmente continuos. Variables continuas (elevación, temperatura) = mejor en raster; Elementos discretos (carreteras, edificios) = mejor en vectorial. El procesamiento de información procedente de satélites es más fácil en entorno raster. Datos satélite = formato raster.
Algunos conceptos elementales asociados al formato raster:
Resolución es la dimensión lineal mínima de la unidad más pequeña del espacio geográfico para la que se recogen datos. En un SIG raster de celdas cuadradas se expresa mediante la medida lineal de la superficie representada por cada celda (lado²). Cuanto menor sea la superficie de terreno representada por cada celda, mayor será la resolución. Orientación es el ángulo formado por el norte y la dirección definida por las columnas de la retícula. Zona y clase representan conjuntos de celdas con el mismo valor. La diferencia radica en la contigüidad: zona implica celdas contiguas que forman una sola mancha o grupo, mientras que clase solo requiere que tengan el mismo valor, pudiendo estar organizadas por varias zonas. Valor es el ítem de información almacenado en cada celda (un dato por celda). Localización: En el modelo raster, el número de fila y columna se utiliza para identificar la celda y situarla en relación con las demás (localización relativa).
La importancia de los datos y la información geográfica:
Un SIG es capaz de tratar, organizar y sistematizar los datos hasta convertirlos en información. Es importante distinguir entre dato e información. Un dato es el simple conjunto de valores o elementos que utilizamos para representar algo. La información, en cambio, es el resultado de un dato y su interpretación. El trabajo con datos es en muchos casos un proceso enfocado a obtener de estos toda la información posible. Un geodato es un dato que cuenta con una posición precisa en el espacio; se encuentra referido a una o varias posiciones.
Componentes de la información geográfica: espacial y temática:
Los datos geográficos constan de dos componentes fundamentales: la espacial y la temática. La componente espacial hace referencia a la localización de cada elemento en el territorio y es la componente geográfica en un determinado sistema de referencia. Es la que responde a la pregunta ¿dónde? Ocurre un determinado hecho. Componente espacial = numérica (coordenadas X, Y). La componente temática establece la naturaleza del hecho representado y permite responder a la pregunta ¿qué? Componente temática = atributos, puede ser numérica o alfanumérica.
Divisiones horizontal y vertical de la información geográfica:
Diferentes divisiones que permiten organizar y tratar la información adecuadamente. Las divisiones de la información geográfica son de dos tipos: horizontales y verticales.
Las divisiones horizontales
Esa compartimentación en bloques no supone ningún obstáculo en el trabajo SIG para presentar cartografía de una zona integrada por varios bloques, ya que los SIG pueden integrar de forma transparente datos correspondientes a zonas distintas y formar un mosaico único.
Las divisiones verticales
La visualización, el análisis y todas las acciones que se realizan sobre la información geográfica en un SIG se llevan a cabo sobre un conjunto de capas, entendíéndose cada una de ellas como la unidad fundamental de información sobre una zona dada y un tipo de información concreta.
El proceso de abstracción:
El trabajo con mapas y cartografía digital implica un proceso de modelización de la realidad territorial. Se desarrolla una secuencia de diferentes pasos, desde la realidad observada a la estructura de datos digital y su manejo informatizado en entorno SIG, pasando por una fase de abstracción y modelización.
Conceptos elementales: modelos y estructuras:
Los conceptos modelo y estructura son complementarios, pero con significados e interpretaciones distintos. Los modelos equivalen a una conceptualización del espacio y se trata de estructuras de datos de alto nivel, mientras que el concepto de estructuras hace referencia a estructuras de datos de bajo nivel. La secuencia de abstracción sigue tres niveles jerárquicos:
Alto nivel:
Modelo geográfico. Es conceptual. Se centra en la variable espacial, en su comportamiento y distribución, así como su variación en el ámbito considerado. De los modelos geográficos de referencia destacan dos tipos: campos y entidades discretas. El modelo geográfico de campos hace referencia al valor o valores que caracterizan un determinado fenómeno (elevación, temperatura, contaminación, etc.). Este modelo es especialmente útil para modelizar variables continuas. El modelo geográfico de entidades discretas interpreta el territorio como un ámbito en el que es posible identificar entidades discretas (elementos reconocibles con un principio y final, forma y ubicación), como los edificios, árboles, viales, etc.
Nivel medio:
Modelo de representación. También denominado modelo de datos, plantea formas concretas de concebir la realidad geográfica observada de forma simplificada. Existen dos modelos de representación: raster (modelo de malla) y vectorial (objetos puntuales, lineales y poligonales). Raster = malla regular de celdas. En el modelo vectorial las entidades del mundo real son representadas mediante tres tipos de objetos: puntos, líneas o polígonos. Es importante distinguir entre entidad y objeto: la entidad es el elemento reconocible en el territorio (un edificio, un banco, un parque, una calle, etc.) y el objeto es el elemento geométrico que representa una entidad en entorno SIG (un Bajo nivel:
Modelo de almacenamiento. Se define como «estructuras de datos». La organización y definición de las diferentes estructuras de datos está condicionada por el modelo (de representación) en el que se encuadra. Si trabajamos con capas modeladas en raster, encontraremos unas estructuras de datos posibles, mientras que éstas cambian de forma considerable si las capas se han modelado en vectorial. Estructuras de datos = minimizar espacio y maximizar eficiencia analítica.
Modelos espaciales (de representación): raster y vectorial:
Los SIG trabajan con modelos y visiones simplificadas de la realidad geográfica. Pueden simplificar o modelizar la realidad a partir de un raster o de un vectorial.
Fundamentos del modelo raster:
El modelo raster se basa en unidades artificiales (elementos discretos) que se corresponden con celdas o píxeles que poseen igual tamaño y forma, obtenidas mediante la superposición de una malla regular sobre la zona de estudio; así, la recogida de la información se hace para cada una de esas celdas. Se crean diferentes capas temáticas de información específica con una distribución regular de celdas de modo que se pueden ajustar varias capas sin ningún problema. Esto es lo que se denomina ajuste perfecto, esencial para que los programas SIG puedan operar con varias capas raster en modelos de superposición, toma de decisiones espaciales, etc. Raster = apropiado para variables continuas. La representación de los elementos en el mundo real se realiza: un elemento puntual se representa mediante una celda, uno lineal mediante una secuencia de celdas contiguas y uno poligonal mediante una agrupación de celdas contiguas. Con ello, se permite el análisis de cientos de elementos de una manera muy sencilla; pero ello lleva asociado ciertos problemas, como la conocida falta de exactitud geográfica; por ello, es lógico tener cuidado si se pasa de una resolución a otra.
Cada celda = 1 valor, sin vacíos. Si se quiere almacenar información diversa sobre una misma zona en raster se deben incluir tantas capas como variables se analicen.
Fundamentos del modelo vectorial:
En un modelo vectorial la individualización se hace a partir de propiedades geométricas (puntos, líneas y polígonos). Vectorial = entidades individualizadas (naturales o artificiales). Los puntos son objetos espaciales de 0 dimensiones. Tienen una localización precisa en el espacio, pero no tienen ni longitud ni anchura. Las líneas son objetos espaciales de una dimensión, ya que tienen longitud, pero no anchura. Las líneas están definidas mediante una sucesión de puntos; por tanto, se presentan por tantos pares de coordenadas como puntos las definan. Los polígonos son objetos espaciales de dos dimensiones ya que tienen longitud y anchura. Se representan mediante una sucesión de líneas que cierran formando el polígono. Escala = importante para elegir tipo objeto.
Modelos de almacenamiento o estructuras de datos raster y vectorial:
Las estructuras de datos hacen referencia al tipo de almacenamiento y de datos de cada capa. Las estructuras de datos son diferentes según el modelo de representación (unas específicas para las capas raster y otras para las capas vectoriales), por lo que se analizan de forma separada.
Las estructuras de datos raster:
En estas estructuras la diferencia fundamental es si se comprimen o no los datos para ahorrar espacio en disco. Así, hay estructuras que no comprimen y generan archivos que ocupan más espacio en disco del necesario. Las estructuras de datos raster se clasifican en simples y jerárquicas. Las estructuras raster simples almacenan todos los datos con una resolución constante (la referencia siempre es el píxel y por tanto la resolución de la malla), mientras que en las jerárquicas la resolución es variable.
Estructuras raster simples:
Se abordan dos tipos de estructuras raster simples con almacenamiento de datos a resolución constante:
Enumeración exhaustiva:
Codificación por grupos de longitud variable:
identifica grupos de valores, por lo que no recoge valor a valor. De esta forma, consigue comprimir considerablemente los archivos si se trata de variables con elevada autocorrelación espacial. En esta estructura hay dos modalidades posibles:
Modalidad estándar:
Modalidad de punto de valor:
anota primero el valor almacenado en un grupo de celdas y después la posición, llegando a identificar hasta la posición en la que el grupo finaliza. Las posiciones son acumulativas. Por autocorrelación espacial se entiende la tendencia existente a que los valores temáticos tiendan a ser más parecidos entre objetos próximos en el espacio que entre objetos situados más lejos. Este planteamiento está en la base de la denominada Primera ley de la Geografía. El orden de almacenamiento puede variar según dirección. Para las estructuras raster simples destacan dos órdenes posibles:
Orden convencional:
Orden en greca:
fila a fila con dirección alternante de izquierda a derecha, derecha a izquierda, etc.
Estructuras raster jerárquicas: Quadtrees:
La estructura Quadtrees es un ejemplo de estructura raster jerárquica. Se trata de una variante de las estructuras convencionales que permite almacenar los datos de las celdas a partir de bloques de distinto tamaño y, por tanto, de resolución variable. Es una estructura compleja, pero es interesante por su capacidad de compresión. De hecho, las estructuras jerárquicas están detrás de algunos de los formatos de archivos que comprimen los datos raster. Esta estructura tiene ventajas adicionales derivadas como la mayor velocidad de acceso a los datos temáticos. En esta estructura la resolución es variable, hasta que se llega a cuadrantes homogéneos (denominado nodo terminal). El modelo de datos quadtree se completa con la generación de un modelo de datos organizado a partir de cuatro columnas de información: coordenada X de un punto de cada nodo, coordenada Y de ese mismo punto de cada nodo terminal, nivel o número de divisiones necesarias hasta generar el nodo terminal (cuadrante homogéneo) y, finalmente, el valor, es decir la información contenida en las celdas de igual valor que han dado lugar al nodo terminal. Para las estructuras jerárquicas los órdenes de almacenamiento más destacados son el N de Morton y el orden Pi.
Las estructuras de datos vectoriales:
En el modelo vectorial las estructuras de datos se diferencian en función de si se trata de estructuras solo cartográficas o si son estructuras topológicas. La diferencia radica en que las cartográficas registran únicamente la geometría (coordenadas), mientras que en las topológicas registran también las relaciones topológicas entre los elementos de la capa vectorial. Las estructuras de datos vectoriales se organizan en estructuras sin topología, aquellas que solo registran la geometría, y con topología, en las que además de la geometría, se registran también las relaciones entre los objetos espaciales o relaciones topológicas. De todos modos, con las herramientas oportunas es posible convertir una estructura de datos cartográfica en topológica mediante el cálculo y almacenamiento de esas relaciones (construcción de topología).
Estructuras vectoriales sin topología:
Lista de coordenadas: para cada objeto vectorial registra su identificador seguido por una lista de las coordenadas de sus vértices, o puntos que definen su posición en el espacio. Si el elemento es lineal, su estructura está definida por su correspondiente código seguido como mínimo por dos pares de coordenadas. Si un elemento es poligonal tendrá una estructura definida por al menos cuatro pares de coordenadas (pues el primero se repite también al final para abrir y cerrar el polígono). La ventaja fundamental de esta estructura es su simplicidad; además está muy extendida. Limitación: duplica información si hay superposición.
Diccionario de vértices:
esta estructura tiene dos ficheros de datos: (1) una relación de vértices en la que constan sus coordenadas x,y; (2) un fichero que especifica los vértices que definen cada objeto. Esta estructura resuelve los problemas de repetición de las coordenadas de los puntos que aparecían en la estructura de lista de coordenadas: las coordenadas de cada vértice se expresan solo una vez (en el fichero de relación de vértices). Sin embargo, sigue sin registrar la topología.
Estructuras vectoriales con topología: Arco-Nodo:
La estructura vectorial arco-nodo es una estructura topológica muy extendida. Los conceptos elementales de la estructura son:
Arco:
es una sucesión de líneas o segmentos que comienza en un nodo y termina en otro.
Nodo:
La estructura topológica arco-nodo se organiza en 3 tablas de topología:
Topología de polígonos:
Topología de los nodos:
indica el identificador de nodo y los arcos que comparten un mismo nodo.
Topología de arcos:
empezando por nodo origen, después vértices intermedios y terminando con el nodo final. De este modo, gracias a la topología muchas de las operaciones de análisis espacial pueden ser realizadas sin recurrir a la geometría, lo que supone un importante ahorro de tiempo.
Principales fuentes de datos espaciales y formatos de archivos:
Los SIG son altamente demandantes de datos en soporte digital. Estos datos pueden obtenerse a partir de fuentes muy variadas (teledetección, GPS, digitalización, etc.), lo que contribuye a que los tipos de archivos generados sean asimismo diversos. Incluso, datos procedentes de una misma fuente pueden presentar tipos de archivos distintos. La existencia de muchos formatos de archivo dificulta el trabajo con los datos en un SIG, principalmente porque ningún SIG implementa la capacidad de poder leer todos los formatos existentes. La interoperabilidad y la comunicación entre distintos SIG, o incluso entre un SIG y otras aplicaciones (bases de datos, aplicaciones para manejo de imágenes, aplicaciones CAD) no es completa, y el aprovechamiento de todos los datos disponibles dentro de un proyecto requiere normalmente tiempo para la gestión adecuada de datos en formatos variados.
Archivos raster:
En los archivos raster se pueden incluir también los que corresponden a las imágenes. Entre los formatos frecuentes para documentos escaneados en SIG están:
TIFF (Tagged Image File Format):
JPG (Joint Photographic Experts Group):
formato comprimido válido para archivos de imagen pero no como formato SIG.
ECW = formato abierto para imágenes grandes.
MrSID = formato cerrado similar a ECW. .
Archivos vectoriales:
Entre los archivos vectoriales destaca especialmente el archivo Shapefile (shp) de ESRI que funciona como uno de los estándares de diferentes programas SIG, tanto comerciales como libres. Está integrado por diferentes ficheros que almacenan geometría (shp), atributos (dbf), índices (shx), etc. También son habituales las geodatabases de Esri o los geopackage de QGIS.
Tablas:
Las estructuras para archivos tabulares más frecuentes en entorno SIG son: txt, csv, dbf y xlsx.
Conceptos de base: MDT y MDE:
Un Modelo Digital del Terreno (MDT)
Es una estructura numérica de datos que representa la distribución espacial de una variable cuantitativa y continua. Esa variable puede ser cualquier fenómeno continuo (por ejemplo, precipitación o temperatura).
Cuando la variable continúa representada es la altitud, el MDT pasa a llamarse Modelo Digital de Elevaciones (MDE). Por tanto, el MDE es un caso específico de MDT: todo MDE es un MDT, pero no todo MDT es un MDE. Los MDT pueden almacenarse con diferentes modelos de datos: raster de celdas regulares, malla de puntos vectoriales, modelo de triángulos (TIN), etc. En todos los casos es necesario registrar la localización XY y el valor de la variable. En el análisis SIG, estos modelos son fundamentales porque buena parte del estudio territorial se basa en el relieve: sus formas, su papel en el medio natural y en las actividades humanas. A partir de un MDE se pueden obtener medidas derivadas (pendiente, orientación, sombreado), visualizaciones (perfiles topográficos) y resultados más complejos (cuencas de visibilidad, horizontes visibles, cuencas hidrográficas, acumulación de flujo, etc.).
Los datos altimétricos de partida:
MDE se construye a partir de documentos cartográficos altimétricos. El soporte puede ser analógico o digital. Mapas en papel requieren digitalización (introduce error). Curvas de nivel pueden proceder de fotogrametría con fotos aéreas. También es posible disponer de datos altimétricos obtenidos directamente mediante sensores aerotransportados y GPS, que registran la altitud de puntos del terreno en soporte digital. En el mejor escenario, se cuenta con un fichero vectorial digital original desde el que se toman directamente los datos altimétricos, evitando la fase de captura manual. Las curvas de nivel son el elemento básico para construir un MDE y su calidad depende de la escala de captura.
Curvas de nivel tienen limitaciones en áreas llanas y fondos de valle. En esos casos, los puntos de cota son imprescindibles para definir superficies llanas y microformas topográficas (picos, depresiones, collados). Un fichero de líneas solo contiene las curvas, mientras que un fichero de puntos puede integrar curvas transformadas en puntos y puntos de cota. Traducir las curvas a puntos y fusionarlas con las cotas genera un fichero vectorial más completo y mejora la definición del MDT.
La interpolación espacial: definición y clasificación:
Una vez obtenidos los datos altimétricos discretos (curvas y/o cotas), el problema central es convertir esos valores conocidos en una superficie continua. Aquí entra el proceso de interpolación. La interpolación es el procedimiento usado para estimar valores desconocidos en localizaciones donde no hay datos, a partir de localizaciones vecinas con valores conocidos. Se basa en la idea de que puntos próximos tienden a parecerse más entre sí que los alejados. En la interpolación espacial considera: escala, comportamiento espacial, método adecuado. Los métodos de interpolación se pueden clasificar en globales y locales (según si aplican la misma función a todo el ámbito o a grupos de puntos), exactos y aproximados (según si conservan todos los valores observados o los modifican), y graduales o abruptos (según si generan una superficie continua o con rupturas categóricas, como en las áreas de influencia). Existen muchos métodos de interpolación.
Creación de MDT basada en interpolación TIN:
La modelización del terreno exige métodos de interpolación muy precisos, y para la altitud se emplean con frecuencia redes de triángulos irregulares (TIN). Un TIN es un modelo vectorial en el que los puntos de observación se conectan mediante líneas formando triángulos. Es un interpolador exacto: usa exactamente los valores de los puntos de partida. En un TIN aplicado a un MDE, los vértices representan entidades del relieve (cumbres, depresiones) y las líneas representan rasgos como valles o crestas. Estos modelos se pueden generar tanto a partir de ficheros de puntos como de curvas. La triangulación puede hacerse de dos formas. En la triangulación constreñida, ningún borde de triángulo cruza las curvas de nivel originales, los triángulos no se solapan y no hay huecos vacíos. Así se asegura la consistencia con los datos. En la triangulación no constreñida, los datos se dividen en secciones para agilizar el proceso; se interpola por partes y luego se unen los modelos parciales. Curvas solas pueden generar falsas superficies llanas. Para corregir estos defectos se identifican los bordes B/T (bridge & tunnel): son lados de triángulo cuyos vértices tienen la misma cota, pero que no son puntos vecinos en la misma curva de nivel. Representan triángulos que pasan por encima o por debajo de la superficie real.
Para corregirlos se generan puntos críticos en la mitad de cada borde B/T y se les asigna un valor de altitud interpolado a partir de las curvas cercanas, tomando la media de las direcciones válidas. Se incorporan estos nuevos vértices y se recalcula la red TIN. Aunque un TIN ya es un modelo digital de elevaciones, por su complejidad geométrica muchas aplicaciones SIG solo lo visualizan y no lo analizan. La mayoría de las herramientas de análisis de superficie están pensadas para raster, por lo que suele transformarse el TIN en una malla raster. La transformación implica nueva interpolación.
Creación de MDT basada en interpolación raster:
En este enfoque, el proceso se realiza enteramente en entorno raster y consta de dos fases: rasterización e interpolación raster. Primero se rasterizan los datos vectoriales de partida, normalmente un vector de curvas de nivel que contiene valores de altitud en un campo de atributos. Se elige ese campo como variable a rasterizar. Celdas con curvas = valor altitud; celdas sin curva = valor vacío. En la segunda fase, la interpolación raster toma este raster con celdas de valor conocido (las que tienen curvas) y celdas vacías (las desconocidas). Aplicando un método de interpolación se estima un valor de altitud para todas las celdas. El resultado es una capa raster de variable continua, donde cada píxel tiene un valor concreto de altitud. Esta aproximación deja el MDE preparado para los análisis posteriores en entorno raster.
Introducción: clasificación de las operaciones espaciales raster:
Las operaciones espaciales en un SIG raster se pueden clasificar según dos criterios complementarios: la posición de las celdas que intervienen en el cálculo y el número de capas implicadas. Según la relación entre celdas, hay operaciones locales, de vecindad inmediata, de vecindad extendida y zonales. Las operaciones locales calculan el nuevo valor de cada píxel usando solo su valor original, sin tener en cuenta las celdas vecinas. Las de vecindad inmediata utilizan la celda de referencia y sus vecinas contiguas (por lado o vértice). Las de vecindad extendida relacionan la celda con otras que pueden estar situadas en cualquier lugar de la capa. Las zonales dependen de las zonas definidas por clases de valor (conjunto de píxeles con el mismo valor temático). Según el número de capas involucradas, las operaciones pueden ser de capa única, cuando solo interviene un mapa, o de capa múltiple, cuando se necesitan dos o más.
El MDE como elemento en común de operaciones espaciales:
Todas las operaciones que se describen en esta unidad utilizan como capa de entrada la altitud modelizada en raster, es decir, un MDE. Estas operaciones permiten parametrizar el relieve, es decir, definir sus carácterísticas geométricas.
Entre ellas, el análisis de pendientes es el más extendido y suele acompañarse del de orientaciones. Además, el MDE es imprescindible para análisis de visibilidad, intervisibilidad, impacto visual y análisis hidrológicos. También soporta funcionalidades de presentación como perfiles topográficos, vistas en 3D y mapas de sombras.
Análisis de pendientes en un SIG raster:
La pendiente es un parámetro morfométrico que expresa la inclinación del terreno respecto al plano horizontal. Se calcula relacionando el desnivel altitudinal entre dos puntos y la distancia horizontal que los separa. Puede expresarse como fracción, porcentaje o grados. Pendiente = desnivel / distancia. En un SIG raster, el cálculo se adapta a una malla de celdas. Se toma como referencia la variación de altitud entre los centroides de las celdas y la distancia entre esos centroides. Es una operación de vecindad inmediata y de capa única, porque intervienen la celda de referencia y sus vecinas, y solo se necesita la información de altitudes. Hay dos esquemas de vecindad habituales. En el esquema equivalente al movimiento de la torre, solo se consideran las cuatro celdas vecinas por lado; en ese caso, la distancia considerada es el lado del píxel. En el esquema equivalente al movimiento del rey, se incluyen también las cuatro vecinas en diagonal y se utiliza la distancia en diagonal calculada mediante el teorema de Pitágoras. Se asigna valor máximo de pendiente = gradiente máximo. Los resultados pueden expresarse en grados o en porcentaje. Una pendiente del 100% equivale a 45 grados, porque en ese caso el desnivel y la distancia horizontal son iguales.
Análisis de orientaciones en un SIG raster:
La orientación es la dirección que toma cada celda cuando se considera como un plano inclinado. Se calcula a partir del MDE y, por tanto, es una operación de capa única y de vecindad inmediata, ya que para estimarla se tienen en cuenta las celdas vecinas.
En SIG, la orientación se expresa en grados de azimut, desde 0 hasta 360, tomando el norte como 0 grados (equivalente también a 360). Se establecen correspondencias cualitativas: 45 grados es noreste, 90 este, 135 sureste, 180 sur, 225 suroeste, 270 oeste y 315 noroeste. Los valores 0 o 360 corresponden al norte. Las celdas con pendiente 0 se consideran llanas. Como no tienen una dirección de inclinación definida, los programas suelen tratarlas de forma especial y asignarles un valor fuera del rango normal (por ejemplo, -1 o -99999), que representa la ausencia de orientación.
Análisis de visibilidad:
A partir de un MDE, un SIG raster puede calcular si existe conexión visual entre distintas celdas. El análisis de visibilidad más habitual es el de cuencas de visibilidad. Una cuenca de visibilidad es el conjunto de localizaciones visibles desde una posición concreta. Es una operación de vecindad extendida porque analiza toda la superficie de referencia, y según el software puede desarrollarse como capa única o como capa múltiple. Sirve tanto para saber qué se ve desde un punto como desde dónde se ve ese punto, lo cual es útil en estudios de impacto visual y localización de infraestructuras con restricciones de visibilidad. Su versión más simple es la cuenca de visibilidad booleana, donde el resultado es un raster de 0 y 1: las celdas visibles toman 1 y las no visibles 0. Necesita MDE + localización emisor/receptor.
También hay que indicar la altura del emisor/receptor, que se suma a la altitud del MDE en su posición (por ejemplo, un visor de 5 m sobre una celda de 200 m se sitúa a 205 m). Por último, es importante indicar el radio de alcance, que permite limitar el análisis a un sector concreto alrededor del punto. El cálculo del horizonte visual es una operación relacionada que estima, a partir del MDT, el borde exterior de una cuenca de visibilidad desde el emisor/receptor. El resultado es un vector que perfila el contorno u horizonte máximo, incluyendo las zonas de sombra. Mientras la cuenca de visibilidad muestra qué celdas son visibles, el horizonte visual representa la línea que define el límite de esa visibilidad.
Análisis hidrológico:
Aunque las funciones disponibles cambian de un programa a otro, suelen estar generalizadas operaciones como cálculo de cuencas de drenaje y acumulación de flujo.
Cálculo de las cuencas de drenaje:
Una cuenca de drenaje o cuenca vertiente es el conjunto de puntos cuyo flujo superficial converge en un mismo sumidero, que suele ser una desembocadura, una confluencia o un punto singular. En un SIG raster, el análisis de drenaje permite estimar, a partir de las altitudes y de las orientaciones internas, qué píxeles vierten su agua hacia un mismo elemento. De este modo, se puede calcular el tamaño de la cuenca de recepción de cada píxel, es decir, cuántas celdas (incluida la de referencia) contribuyen con su flujo a pasar por ese punto. Es una operación de vecindad inmediata, porque se basa en cómo se reparte el flujo entre celdas vecinas, y puede ser de capa única o de capa múltiple según la variante que se utilice. Es imprescindible disponer de un MDE como capa de entrada. Sin embargo, la presencia de pozos o depresiones locales (mínimos relativos) en el MDE causa problemas en el algoritmo, ya que interrumpen el flujo. Por eso, antes de calcular cuencas u otros análisis hidrológicos es necesario corregirlos mediante la operación de eliminar fosas o depresiones. Esta corrección se realiza a nivel de píxel: si se detecta una depresión, se eleva su altitud hasta igualarla a la altitud mínima de sus vecinas inmediatas. Además, existen situaciones que alteran el modelo de drenaje. Las celdas planas sin orientación se sustituyen automáticamente por el promedio de las celdas limítrofes para darles una dirección de flujo. Las fosas o depresiones se corrigen mediante la eliminación de depresiones, como se ha descrito. En muchos estudios interesa determinar las celdas que vierten sus aguas a un pozo, desembocadura u otro punto específico. Para ello se necesita el MDT corregido y las coordenadas del punto en cuestión, que se usa como referencia para delimitar la cuenca aguas arriba. La operación puede tener varias variantes. En capa única, se pueden calcular cuencas automáticas a partir del MDE sin depresiones sin usar más capas, simplemente marcando un umbral mínimo de número de celdas para considerar que existe una cuenca. También se pueden calcular cuencas a un punto, indicando un par de coordenadas X, Y; el resultado es un raster binario en el que las celdas de la cuenca toman valor 1 y el resto 0. En capa múltiple, se pueden calcular cuencas vertientes a un elemento cartografiado en otra capa, combinando el MDT corregido con ese mapa de referencia.
Cálculo de la acumulación de flujo:
El cálculo de la acumulación de flujo es una operación de capa única que asigna a cada celda el valor de la superficie situada aguas arriba de ella, es decir, el área de todas las celdas cuyo flujo, una vez conducido aguas abajo, terminará pasando por esa celda. El resultado es un mapa raster donde cada píxel tiene un valor de área acumulada. La configuración espacial de esos valores tiende a dibujar un patrón que se asemeja a la red de drenaje real, por lo que se puede utilizar para identificar cauces potenciales. Existen distintos métodos para estimar la acumulación de flujo, como D8, Rho8, DInfinity, etc. Entre ellos, el método de dirección de flujo múltiple (MFD) se destaca por ofrecer un modelo de acumulación de mejor calidad porque permite que el flujo se reparta en varias direcciones, considerando un flujo bidimensional.
Presentación de información asociada al MDE:
El MDE no solo sirve para análisis cuantitativos, sino también para presentar y explicar la zona de estudio. Esta unidad presenta dos utilidades orientadas a la visualización: los mapas de sombras y los perfiles.
Mapas de sombras o relieve sombreado:
El sombreado analítico consiste en asignar a cada punto del mapa un valor de reflectancia que simula el aspecto del relieve bajo una fuente de luz. Se hace más interpretable el relieve porque se representa cómo quedaría iluminado por el sol, de manera que se distinguen zonas de luz y sombra. Se trata de una operación de capa única basada en el MDE, donde se tienen en cuenta la altitud de cada celda, el ángulo de incidencia de la luz y el azimut.
Perfiles:
Un perfil topográfico muestra cómo varía la altitud a lo largo de una línea de referencia trazada sobre el área de estudio. Esa línea se almacena como un vector, mientras que el relieve se representa en un raster MDE. Para generar un perfil se necesitan ambos datos: el MDE raster y la línea de perfil vectorial. El programa extrae las altitudes de las celdas atravesadas por la línea y representa la relación entre distancia a lo largo del perfil y altitud. Resultado = representación gráfica + vector de puntos. Puntos llevan coordenadas, altitud, distancia al origen. Los perfiles sirven para analizar cortes del relieve, pendientes a lo largo de itinerarios o carácterísticas de taludes, entre otros usos.
Funcionalidad SIG para la respuesta de consultas:
La verdadera potencialidad de los SIG descansa en su capacidad para dar respuesta a consultas y problemas concretos de índole espacial o geográfica. Partiendo de un objetivo concreto, el usuario debe saber formular las preguntas pertinentes, diseñar las metodologías y estrategias adecuadas para su resolución y obtener una respuesta válida, que puede adoptar la forma de mapas, gráficos o tablas de datos alfanuméricos. Esta relación se define como un conjunto de operaciones que afectan a los datos. Una consulta o Query es el conjunto de condiciones y preguntas que constituyen la base de recuperación de la información almacenada en una base de datos. El objetivo es recuperar información de una base de datos geográfica, trabajando a partir de los fundamentos de las operaciones de búsqueda en un SIG.
Cualquier consulta realizada sobre una base de datos requiere la puesta en marcha de un proceso por el cual se pretende identificar un conjunto de elementos que cumplen unas determinadas carácterísticas. La diversidad de consultas posibles y la variedad en los modelos de datos espaciales hacen que sea complejo establecer una sola clasificación. Por ello, existen diferentes criterios organizativos y clasificaciones de consultas.
Clasificación de consultas según la naturaleza de los datos:
En función de la naturaleza de los datos geográficos que un SIG puede almacenar (espacial y temática), se pueden diferenciar las consultas en dos categorías: temáticas y espaciales. Consultas temáticas son aquellas en las que se recuperan de la base de datos los objetos atendiendo a las carácterísticas de alguno de sus atributos (campos). Pueden ser de especificación nominal o de condición relacional. Consultas mediante especificación nominal: la búsqueda de datos se realiza a través del nombre o atributo nominal de los objetos. Descansa en uno o más campos de texto. Ejemplos: todos los municipios que comienzan por «S», todos los elementos cuya denominación corresponde a «edificación aislada», etc. Consultas mediante condición relacional: los criterios de selección son de tipo relacional (Mayor que >, Menor que <, Igual a =, Mayor o igual a >=, Menor o igual a <=, Diferente a <>). Descansa en uno o más campos numéricos. Ejemplos: todos los núcleos situados por encima de un umbral altitudinal (>700), todos los tramos de carreteras con un desnivel entre 5 y 10% (>5 y <10), etc. Dos o más consultas pueden combinarse mediante el empleo de operadores lógicos (AND, OR, XOR, NOT). Este tipo de consultas, más complejas, se diseñan sobre dos consultas (nominales o relacionales) previas. Ejemplos: todos los núcleos por encima de 1000 m y con menos de 100 habitantes (relacional y relacional), todas las formaciones vegetales en la categoría bosques o prados (nominal o nominal), todas las calles que comienzan por «r» y que no tengan más de 100 plazas de aparcamiento (nominal y relacional), etc. Consultas espaciales son aquellas en las que se identifican ciertos objetos de la base de datos atendiendo a una determinada posición espacial, absoluta o relativa en función de la ubicación de otros objetos.
Clasificación de consultas según el modelo de datos:
En función del modelo de datos espaciales, las consultas pueden ser raster o vectoriales. Este criterio de clasificación es utilizado como base para presentar los materiales teóricos sobre las consultas.
Consultas en un entorno raster:
A diferencia de los datos vectoriales, la información matricial (raster) no se vincula directamente a una base de datos alfanumérica. Ello implica que la totalidad de la información espacial y temática se almacena en ficheros de tipo gráfico y que cualquier consulta en un entorno raster se limitará a seleccionar un subconjunto de celdas de una o de varias capas raster. Las consultas son operaciones locales, donde la respuesta depende del valor que aloja cada celda; pudiendo ser de capa única o múltiple.
Existen diferentes procedimientos para diseñar consultas y visualizar sus resultados en función del programa SIG que se maneje.
Consulta directa de un solo nivel en una posición concreta:
Este tipo de consultas responden a la cuestión ¿Qué hay en… [dentro de una capa]? De forma semejante al entorno vectorial, la información de cualquier fichero raster puede ser consultada directamente con el cursor que activa la consulta en pantalla. Haciendo clic sobre una posición concreta (píxel), el sistema devuelve el valor de la celda, que corresponde al valor de la variable en esa posición.
Consulta directa de varios niveles en una posición concreta:
Este tipo de consultas responden a la cuestión ¿Qué hay en… [dentro de «n» capas]? Resuelve la misma operación descrita anteriormente, pero actuando sobre más de un fichero o capa raster de forma simultánea (consulta múltiple). Para ello es necesario disponer de una colección de ficheros o un conjunto de capas raster activas. Con esta opción de consulta es posible ver en pantalla una tabla con los valores de todas las capas activas en la posición indicada por el usuario.
Consulta de valores de un solo nivel incluidos en un rango:
Mediante las opciones de visualización de valores mínimos y máximos en las tablas de color es posible restringir la representación de los datos a un rango determinado. En este caso, los colores de la paleta se reparten entre los valores del rango, representándose los valores inferiores y superiores del rango con el primer y último color de la paleta respectivamente.
Consulta de valores de un solo nivel pertenecientes a una categoría concreta:
Consiste en resaltar las celdas que corresponden con una categoría concreta definida en la leyenda. Para ello es necesario que el archivo recoja categorías discretas (variables con comportamiento cualitativo) y siempre con valores enteros. El resultado es una capa raster en la que las celdas de la categoría seleccionada se visualizan y las restantes se anulan de la visualización. Esta capa puede considerarse como un raster binario o lógico y representa el cumplimiento o no de la condición de búsqueda planteada por el usuario. Es importante tener en cuenta que ninguno de los procedimientos de consulta descritos almacena de forma permanente los resultados obtenidos, sino que se limitan a la visualización temporal en pantalla.
Reclasificación de capas raster como mecanismo de consulta:
Esta operación permite asignar nuevos atributos temáticos a partir de los datos originales, transformando los valores de partida con el objeto de facilitar su identificación. Es el procedimiento de consulta más habitual en un entorno raster.
Habitualmente el nuevo atributo temático (valor reclasificado) en una consulta será un valor binario (0 | 1). En la reclasificación el usuario debe introducir los valores originales y su correspondiente re-etiquetado siguiendo la siguiente lógica: «Asigno el valor de (a) a todos los valores comprendidos entre (b) hasta (c)» [siendo (a) el nuevo valor (0 o 1 en un mapa binario resultante), (b) el límite inferior del rango y (c) el límite superior]. Carácterísticas importantes en la reclasificación:
El valor máximo del rango (o límite superior del intervalo) con frecuencia no será incluido en la selección. Esto es fundamental para la reclasificación de variables cuantitativas discretas (con comportamiento de variable cualitativa), careciendo prácticamente de importancia para las variables cuantitativas continuas. Si la variable es cualitativa (formaciones, categorías de Corine Land Cover, usos del suelo, etc.) debe ponerse como límite superior el valor inmediatamente superior al que se pretende reclasificar en cada intervalo. No hay límite en el número de nuevas categorías que se pueden definir en la reclasificación. Los nuevos valores asignados pueden ser enteros o reales. El valor mínimo del rango en GvSIG no estará incluido.
Recordatorio sobre tipos de variables:
Variables cuantitativas son las que se expresan numéricamente (temperatura, superficie, altitud, etc.). Se pueden cuantificar los valores adoptando unidades de medida. Las variables cuantitativas discretas solo toman valores enteros y pueden interpretarse como el resultado de contar unidades, mientras que las variables cuantitativas continuas son el resultado de medir y pueden contener decimales, de modo que cada caso puede adoptar cualquier valor dentro de un recorrido concreto. Variables cualitativas (o categóricas) son aquellas que no aparecen en forma numérica, sino como categorías o atributos de texto.
Consultas en un entorno vectorial:
La información vectorial se organiza normalmente en capas o niveles, definidas por contenido temático y/o tipo de objeto (punto, línea, polígono). Esta carácterística facilita la tarea de consulta. Cualquier objeto vectorial (punto, línea o polígono) contiene al menos un atributo, normalmente un identificador, al que opcionalmente pueden añadírsele otros que se almacenan en distintos campos de una base de datos asociada. La forma más rápida de consulta de estos valores es a través de pantalla, haciendo clic con el ratón sobre el elemento de interés y desplegando su valor. Clasificación de consultas vectoriales según Haining:
Cobra especial protagonismo una clasificación que plantea la existencia de consultas univariantes (sobre un solo atributo y una sola capa) o multivariantes (sobre varios atributos de una o más capas). En ambos tipos la consulta puede ser espacial (resultado cartográfico) o aespacial (si se describe estadística o gráficamente el conjunto de casos). Con ello, se deriva la siguiente clasificación: Univariante:
espacial o aespacial. Multivariante:
Especial importancia cobran las consultas de tipo espacial ya que posibilitan observar patrones espaciales de diverso tipo: concentración de casos que cumplen cierta condición, distribuciones organizadas, dispersión, aleatoriedad, etc. Filtros y lenguaje SQL Cuando la consulta recae en la base de datos alfanumérica, las herramientas necesarias son las propias de un Sistema Gestor de Base de Datos (SGBD), como los filtros, basadas frecuentemente en el lenguaje de consulta SQL (Structured Query Language). El lenguaje SQL contiene una serie de reglas básicas para definir un filtro que seleccione en la base de datos aquellos registros que cumplan los requisitos definidos por el usuario. Utiliza caracteres-comodín como * y %, y órdenes como «select», «order by», etc. Establecido el filtro, el usuario puede visualizar los resultados en forma alfanumérica o en forma gráfica, quedando los elementos seleccionados resaltados en color amarillo, contrastando con los grises de los que no cumplían los criterios definidos. Esta visualización permite verificar la calidad del filtro definido y, en caso necesario, modificar los criterios de selección.
Empleo de los operadores lógicos en consultas de dos o más condiciones:
Los procedimientos de consulta descritos anteriormente resuelven en su mayoría peticiones de datos a partir de un único nivel de información. Habitualmente, se necesita formular consultas más complejas como ¿qué zonas están por encima de los 500 metros y en pendiente superior a 30 grados? O ¿dónde se localizan las manchas de robledal en exposiciones sur? En este tipo de consultas intervienen dos o más capas que se relacionan mediante un operador lógico (AND, OR, XOR o NOT). La estrategia seguida con SIG para dar respuesta a este tipo de consultas temáticas exige generar mediante el operador de reclasificación tantos mapas binarios como capas intervengan y, en una segunda fase, combinar estos mapas binarios para producir un mapa final.
Este procedimiento equivale a la técnica clásica de superposición de mapas, con la peculiaridad de que cada mapa contiene únicamente dos categorías lógicas (presencia 1 | ausencia 0). Los operadores lógicos o booleanos facilitan la combinación de niveles. La denominación «booleano» procede del matemático inglés George Boole (1815-1864), quien definíó los principios de la lógica matemática. La expresión booleana se define como la expresión basada o reducida a condiciones del tipo Verdadero/Falso y en nuestro caso responde o no a una determinada consulta, indicando zonas que cumplen [o no] una determinada condición.
Operador «Y» (AND):
Resuelve el cálculo de la intersección de dos conjuntos de datos o capas. Solo en el caso de que el valor en ambos conjuntos (capas) sea verdadero (valor 1), el resultado es verdadero. En términos matemáticos, equivale a multiplicar dos o más matrices binarias. El mapa resultante (C) representa las zonas que cumplen las condiciones A y B conjuntamente.
Operador «O» (OR):
Calcula la uníón de dos conjuntos y es, por consiguiente, menos selectivo que el operador AND. Si el valor en cualquiera de las capas de partida (A o B) es verdadero (valor 1), el resultado final es verdadero.En términos matemáticos, equivale a sumar dos o más matrices binarias y reclasificar todos los valores distintos a 0 como 1. El operador OR también equivale a la elección del máximo. El mapa resultante (C) representa las zonas que cumplen la condición A o la condición B, o las condiciones A y B conjuntamente.
Operador «NO» (NOT):
Selecciona las celdas que pertenecen al primer conjunto de datos (condición A) y que no pertenecen al mismo tiempo a la segunda condición. El mapa resultante (C) representa las zonas que cumplen la condición A pero no la B, ni la A y la B conjuntamente.
Operador «O EXCLUSIVO» (XOR):
Busca aquellas celdas distintas a 0 en ambas capas, pero descarta aquellas que están presentes simultáneamente en ambas imágenes. Si uno y sólo uno de los valores en uno de los conjuntos es verdadero, el resultado es verdadero. El mapa resultante (C) representa las zonas que cumplen la condición A o la B pero nunca la A y la B conjuntamente.
Operaciones para el desarrollo de consultas lógicas En el entorno raster, el empleo de los operadores booleanos se desarrolla mediante dos opciones o tipos de herramientas posibles: Superposición de pares de variables (capas) mediante operadores booleanos (OVERLAY):
Calculadora de mapas:
permite combinar dos o más capas raster binarias (0 | 1) y generar consultas complejas en las que intervienen múltiples niveles de información empleando todos los operadores relacionales y lógicos en un mismo entorno. Esta herramienta pone en manos del usuario una amplísima gama de operaciones con los datos, de tipo matemático y de tipo lógico, e introduce en campos clásicos del mundo SIG como son el álgebra de mapas (Map Álgebra) y la superposición cartográfica (Cartographic Overlay).
Mediciones espaciales: cálculo de áreas y perímetros de base raster:
El análisis de superficies mediante herramientas SIG es una operación que se resuelve con rapidez y que resulta muy funcional. Existen importantes diferencias entre las maneras de operar de un SIG raster y un vectorial. El análisis de superficies o áreas en entorno vectorial es más preciso, y estos cálculos en los vectoriales cuentan con más precisión además de quedar almacenados en la base de datos asociados a cada elemento de referencia, con lo que pueden ser usados y consultados en diferentes momentos con facilidad. En este tema nos centraremos especialmente en las mediciones raster.
Cálculo del área en modelizaciones SIG raster:
El cálculo del área mediante SIG en niveles raster es una operación zonal de capa única. Se obtendrá un resultado para cada uno de los valores de la capa de entrada, que forman zonas y clases. Los programas SIG para analizar el área recurren a un concepto de «clase», de modo que el resultado no está condicionado por la ubicación de las celdas (vecindad), sino por su pertenencia a una determinada categoría de la leyenda. Se trata, por tanto, de una operación del tipo zonal. El Área permite calcular la superficie que ocupa cada valor de la variable de una capa raster que contenga categorías. Para el cálculo del área de una determinada variable cartografiada en modelo raster, la resolución es la clave de cálculo. La resolución (tamaño de píxel) permite conocer la superficie que representa cada celda en el mundo real y conociendo ese valor se estima el área de forma automática a partir del número total de celdas que cuentan con el mismo valor en el mapa de entrada. La fórmula de cálculo de base raster para el análisis de áreas es: Área = nº de píxeles × área de 1 píxel De este modo, se mide la superficie asociada a cada valor de la variable del mapa (clase). En un mapa raster con cuatro códigos de usos del suelo organizados en varias manchas compactas (grupos contiguos de celdas con el mismo atributo/valor), el cálculo del área permite obtener solo cuatro valores de área: uno para todas las manchas del tipo 0, uno para las celdas de código 1, uno para la mancha de tipo 2 y finalmente uno para la mancha de tipo 3.
Cálculo del perímetro en modelizaciones SIG raster:
Al igual que el cálculo del área, el perímetro es una operación zonal de capa única. Los perímetros mediante un SIG raster se calculan en función del número de lados de píxel (celdas) que forman la frontera exterior de la zona. El procedimiento es semejante al del área, también interviene la resolución; si bien, en el caso del perímetro se consideran el número de lados que definen un conjunto de celdas con cierto valor y ese número de lados se multiplica por la medida de longitud de un lado. La fórmula es: Perímetro = nº lados píxel × longitud de 1 lado El perímetro tiene en cuenta solo los lados que quedan en cada polígono envolvente de categoría, bien sean limítrofes a otras categorías, o bien correspondan a límite de capa.
Cálculo de estadísticos espaciales a partir de un SIG raster: Estadísticos centrográficos:
Se trata de los estadísticos de centralidad y dispersión llevados al ámbito espacial. Entre los estadísticos posibles destacan dos medidas de centralidad: el centro medio y el centro mediano. Centro medio:
El centro medio se define como la media aritmética de las coordenadas X e Y de todos los píxeles que integran una determinada zona o categoría de la leyenda. Su valor resultante implica la obtención de una localización puntual a partir de un par de coordenadas que se traducen en un archivo vectorial. Con frecuencia lleva asociadas medidas complementarias de dispersión, como la desviación de las distancias o el radio estándar (análogo espacial directo de la desviación estándar) que informan del grado de dispersión de un hecho geográfico respecto a su centro medio. Centro mediano:
Es la traducción espacial de la mediana (valor que divide una serie en dos partes iguales y equivale al percentil 50). Al igual que el centro medio, el centro mediano es también un punto. En este caso sus coordenadas son las medianas de las de los puntos analizados en cada eje. Es menos sensible a valores extremos que el centroide (o media espacial).
En el centro mediano se distinguen dos variantes de cálculo: según el enfoque inglés, es el punto de intersección de dos ejes ortogonales de modo que cada uno de ellos dividen las ubicaciones de partida en dos partes iguales (no es un punto único, sino que puede adoptar múltiples ubicaciones cumpliendo esta definición). Por otro lado, el enfoque norteamericano considera el centro mediano como el punto de desplazamiento mínimo a las ubicaciones de partida.
Autocorrelación espacial:
La autocorrelación permite analizar en qué grado una variable medida en diferentes puntos del territorio se relaciona con ella misma. Esta definición enlaza con la Primera ley de la Geografía (Tobler, 1959) por la que los elementos próximos en el espacio tienden a parecerse más que los que se encuentran alejados entre sí. Su utilidad podría orientarse a analizar o comprobar si la aparición de un determinado valor de una variable en un lugar hace más (o menos) posible que ocurra ese mismo valor en las zonas limítrofes. Con frecuencia, la autocorrelación espacial se incorpora en estudios de procesos causales de «contagio espacial o difusión espacial», que permite comprender, razonar y explicar determinados procesos espaciales. Tipos de resultados en el análisis de autocorrelación: Autocorrelación positiva:
Autocorrelación negativa:
existe tendencia a que el hecho registrado en un lugar hace poco probable que aparezca en su entorno próximo. Autocorrelación nula:
La autocorrelación espacial puede expresarse a partir de diferentes medidas o estadísticos, destacando especialmente las medidas de autocorrelación específicas que relacionan las distancias entre diferentes puntos del espacio analizado y las diferencias de valores temáticos de la variable estudiada. En algunos programas SIG la autocorrelación se estima a partir del índice de Morans, que presenta dos variantes: Rook (semejante a la torre en el tablero de ajedrez):
analiza valores en línea recta vertical y horizontal respecto a cada celda. King (semejante al rey en el tablero de ajedrez):
Se trata de un índice acotado, con valores comprendidos entre -1 (autocorrelación negativa, es decir, celdas contiguas con valores muy diferentes) y +1 (autocorrelación positiva, es decir celdas contiguas con valores muy parecidos). Índice acotado entre -1 (máxima autocorrelación negativa) y 1 (máxima autocorrelación positiva) con nivel intermedio 0 para la ausencia de autocorrelación.
Correlación y regresión espacial:
En estadística espacial mediante SIG cobran especial importancia los conceptos de correlación y regresión, que en términos generales hacen referencia al conjunto de métodos que permiten comparar dos o más conjuntos de datos (en nuestro caso mapas, capas o variables espaciales) y sirven para determinar la fuerza de la asociación entre las variables de partida, indicando el tipo de relación existente. Uno de los estadísticos de correlación más extendido es el coeficiente de correlación de Pearson, que permite medir el grado y tipo de asociación lineal entre dos variables; así, solo se genera un elevado coeficiente de correlación cuando la relación entre las variables es lineal. Su valor se encuentra acotado entre -1 y +1, informando de intensidad de la relación y del signo o tipo de la misma: Correlación positiva
Correlación negativa (con máxima intensidad en -1) implica que a medida que aumenta el valor de la variable del mapa X disminuye el valor de la variable del mapa Y. Correlación lineal nula:
Otro indicador ampliamente utilizado, derivado del coeficiente de correlación de Pearson, es el coeficiente de determinación (r²). Se interpreta como la explicación del grado de variación de una variable en función de la variación experimentada por la otra. Se interpreta en tantos por ciento (%). En los casos en los que la correlación es intensa cobran especial importancia los análisis de regresión espacial. La regresión (como concepto estadístico) permite predecir los valores que asumirá una variable Y (dependiente), a partir de los de otra X (independiente), entre las que se plantea que existe cierta relación. El planteamiento general se basa en determinar la ecuación de regresión mediante la cual se podrá estimar el valor de la variable dependiente (Y) cuando se tenga un valor conocido de la variable independiente (X). X es la variable independiente (predictora y explicativa). Y es la variable dependiente (resultado de predicción y explicada). El método de regresión mediante un SIG permite estimar a partir del mapa de la variable X (independiente) y del mapa de la variable Y (dependiente) una ecuación que permitiría despejar cuál sería el valor Y de un píxel para el que se conoce el valor X. Ecuación de regresión lineal: Y = a + b·x Siendo: «Y» el valor promedio pronosticado de Y para cualquier valor de X; «a» la constante de regresión y «b» el coeficiente de regresión. El análisis de regresión se basa en la selección de una serie de casos (celdas) para los que se dispone de ciertas observaciones de dos variables. A continuación, se dibuja un diagrama de dispersión (nube de puntos) que permite visualizar la relación existente entre los dos mapas considerados y a partir de ella determinar la ecuación de regresión.
Operaciones de cálculo condicionado a una variable o capa de referencia mediante SIG:
Se incluyen aquí algunas de las operaciones de cálculo principales en las que los resultados obtenidos están condicionados a un elemento de referencia representado cartográficamente en una capa de definición de elementos, que actúa como una variable discreta (una vía de comunicación, usos del suelo, cuenca visual, etc.). Por ejemplo, si se tiene una capa vectorial de categorías de Corine Land Cover y se desea obtener la altitud media de cada cobertura a partir de la información que contienen los píxeles del MDE.
Extracción de valores:
La función extracción de valores permite, como su nombre indica, extraer u obtener información calculada para cierto mapa de definición de unidades espaciales en función de una capa raster que se procesa.
Se trata de una operación, por tanto, de capa múltiple. Esta información procesada puede ser variada; así, es posible extraer un valor máximo, mínimo, medio, etc. De variables como la altitud, la pendiente, la distancia a un elemento, etc. El resultado de esta operación suele ser una tabla con una serie de valores numéricos obtenidos para cada elemento de referencia.
Muestreo de capas raster:
Una variante de la extracción de valores es el muestreo de capas raster a partir de una capa de referencia. Esta operación cuenta con la particularidad de partir de un vectorial de puntos, a modo de puntos muéstrales, aunque pueden responder a cualquier tipo de entidad puntual (puntos kilométricos, localizaciones singulares, paradas en un recorrido, emisores/receptores, antenas, etc.). Para ese vectorial se añaden una o varias capas raster de la misma zona que son las variables que se procesan para obtener los resultados de muestreo. Estas variables pueden ser diversas: altitudes, pendientes, orientaciones, distancias, etc.
Como resultado de la operación se obtiene un valor numérico (valor de celda) para cada punto muestral y para cada capa raster incorporada en la operación. Por ejemplo, si se hace un muestreo para 3 capas raster a partir de un vectorial de puntos que contiene 2 localizaciones puntuales, el resultado de la operación serán 6 valores calculados: el valor del punto 1 en las 3 capas raster y el valor que corresponda al punto 2 en las 3 capas raster.
Análisis de distancias en modelizaciones SIG raster:
En un análisis de distancia raster se miden las distancias euclidianas (en línea recta), como el vuelo de un pájaro, considerando plenamente regular la superficie abordada. Refleja la distancia entre cada celda de referencia y las más cercanas de un conjunto de celdas objetivo. Se trata de una operación espacial de capa única y vecindad extendida, en la que el resultado generado es una capa raster en la que las celdas han asumido el valor de distancia a un elemento concreto de referencia. Estas distancias se expresan en las unidades de referencia (en las que está documentada la capa de entrada, en nuestro caso, metros). En el proceso de cálculo de distancias intervienen dos tipos de cálculos de distancias, según la ubicación de las celdas de referencia y las que asumen el nuevo valor de distancia: distancias directas y distancias indirectas. Distancias directas son aquellas que se calculan mediante el producto del número de celdas por la medida del lado de celda, siempre que las celdas se encuentren en la misma fila o columna que el elemento de referencia. Distancias indirectas son aquellas calculadas entre celdas que se encuentran en distinta fila y columna. Para su cálculo hay que recurrir al Teorema de Pitágoras, siendo la distancia la hipotenusa y los catetos corresponden con las distancias directas tanto en sentido horizontal como en vertical (el número de celdas que distan entre ambas localizaciones multiplicado por el tamaño del lado de celda).
Análisis de proximidad (corredores o buffer) en modelizaciones SIG raster:
Las operaciones de buffering (creación de buffers) permiten definir zonas a partir de un elemento o conjunto de elementos de referencia. Se trata de operaciones sencillas de interpretar e incorporar a análisis posteriores. En su proceso de cálculo, para generar el corredor buscado inicialmente, el sistema debe realizar un análisis de distancias euclidianas respecto al elemento bufferizado. Si nos centramos en los cálculos mediante sistemas raster, a partir del análisis de proximidad (BUFFER), esta operación estima las celdas que se encuentran a menos de cierta distancia de algún elemento tomado de referencia (por ejemplo, a menos de 500 metros de una autovía). Con este cálculo el mapa resultante identificará el conjunto de celdas que integran el corredor (es decir, incluidas a menos de cierto umbral de distancia al elemento de referencia) y se anularán (valor 0) las celdas ubicadas más allá de las zonas del buffer (externas al corredor definido). Permite, en suma, calcular cuáles son todos los píxeles a menos de «x» unidades de distancia al elemento de referencia. Es una operación de vecindad extendida y capa única. Para poder calcular un corredor solo es necesario disponer de un raster con el elemento a partir del cual se va a realizar el análisis de proximidad (capa única) y, dado que en su estimación debe desarrollarse inicialmente un análisis de distancias completo, es una operación de vecindad extendida. Solo es necesario el elemento de referencia y un umbral a modo de parámetro para marcar la diferencia entre lo que forma parte y no del corredor. Dicho umbral debe expresarse en las mismas unidades que la capa de referencia.
En este caso, no se conocen las distancias exactas, como ocurría en el análisis de distancias euclidianas, sino que solo se sabe si una determinada celda se encuentra dentro de cierto umbral de distancia. La operación de buffer equivale a la realización de un análisis de distancias que posteriormente se reclasifica, de modo que quien realiza la operación no percibe el cálculo de distancias intermedio y recibe como resultado final los valores calculados ya reclasificados. En esta operación espacial, y en función del software SIG con el que se desarrolle, es posible identificar variantes, algunas de cierta utilidad en la resolución de problemas espaciales concretos como el análisis de corredores de diferente amplitud (tamaño variable según los elementos de referencia) a partir de una capa de entrada. Para ello es necesario que cada celda que configura un elemento de referencia tenga como valor el tamaño de buffer que a partir de ella se desea aplicar, eligiendo en la operación correspondiente la opción «Usar valor de celda como distancia».
Cálculo de rutas óptimas:
Definición de ruta óptima y conceptos asociados:
En una filosofía SIG raster se definirán rutas óptimas basadas en el concepto de «caminos o rutas de menor coste».
Este concepto base condiciona el desarrollo aplicado de rutas óptimas y hace necesario precisar los siguientes conceptos asociados: barreras, superficies de fricción y análisis de costes de desplazamiento. Estos conceptos enlazan directamente con el concepto inicialmente planteado de «caminos de mínimo coste» que se materializa en determinar la ruta de menor coste entre dos puntos de referencia (inicio y destino) a partir de una capa raster de base que almacena el coste de desplazamiento acumulado. Barreras:
Se consideran barreras aquellas variables que interfieren en el desplazamiento en una determinada zona, dificultado el desarrollo de rutas y, por tanto, aumentando los costes de desplazamiento. Son variables o condiciones de resistencia al desplazamiento. Esta denominación genérica puede materializarse en barreras concretas según el objetivo de la ruta, el ámbito de estudio, etc. Se pueden clasificar en dos tipos básicos: Barreras absolutas:
insalvables. Barreras relativas:
Algunos ejemplos de barreras u obstáculos al desplazamiento pueden ser: los ríos, la existencia de espacio edificado, la presencia de zonas forestales o áreas diversas a proteger, las elevadas pendientes, la altitud, etc. Superficies de fricción:
La fricción en el cálculo de rutas óptimas es entendida como la magnitud de resistencia al desplazamiento impuesta por una barrera. Para establecer la superficie de fricción se parte de la base de que las distancias o el movimiento entre un origen y un destino no lo son en términos geométricos y que se pueden derivar distancias efectivas, en las cuales la superficie atravesada no se considera homogénea. Las superficies de fricción representan un valor de dificultad al desplazamiento desde el mínimo posible en «1» hasta fricciones muy elevadas (no acotadas) que pueden aproximar el concepto de barrera relativa a absoluta a partir de cierto umbral. En algunos programas SIG es posible indicar una fricción máxima completa equivalente a una barrera absoluta mediante el «-1». La fricción también puede denominarse coste unitario en cuanto que solo contempla el valor de dificultad impuesto por una celda y no su valor relacionado con la distancia a la celda objetivo (destino de la ruta).
Análisis de costes de desplazamiento acumulados (isotrópicos/anisotrópicos):
El coste de desplazamiento viene impuesto por la distancia al punto destino de la ruta y por la existencia de una serie de barreras u obstáculos al desplazamiento materializados en la superficie de fricción. Se considera acumulado desde el destino (punto de partida para el análisis de coste de desplazamiento) de forma que en la capa de costes cada celda representa el coste de desplazamiento a la celda objetivo (si solo se considera un destino) o bien al destino más cercano (en caso de tomarse varias celdas como referencia en el cálculo del coste). El análisis de costes de desplazamiento genera una superficie de distancia (entendida no como cercanía espacial sino como una distancia-coste) medida como coste de desplazamiento (en términos del esfuerzo, del gasto, etc.) al moverse por una superficie de fricción desde un destino. Con frecuencia la unidad de medida en la imagen de costes resultante es «los equivalentes de celda» (gce: grid cell equivalents). Un valor de 1 indica el coste de mover por una celda de la malla cuando la fricción es igual a 1. Un coste de 5 gce quizás surja de un movimiento por 5 celdas con una fricción de 1, o atravesar una celda con una fricción de 5. Estos costes se determinan radialmente desde el destino, es decir, de la celda de referencia inicial para terminar la ruta. Los costes acumulados de desplazamiento se pueden calcular tomando como referencia dos principios posibles: Isotrópico:
basado en un coste de desplazamiento idéntico en todas las direcciones, solo alterado por la distancia a la celda destino y por la dificultad indicada en la superficie de fricción. Anisotrópico:
Proceso de cálculo de rutas óptimas en un SIG raster:
El valor de cada celda en una capa de coste acumulado indica el coste mínimo para alcanzar una de las celdas de destino, pero no informa de la ruta que implica dicho coste. No obstante, no es difícil calcular dicha ruta.
Los SIG incorporan algoritmos orientados al análisis de rutas óptimas con condicionantes que pueden variar de unos programas a otros. La realización del cálculo de rutas óptimas, o rutas de mínimo coste, implica una serie de pasos encadenados que deben seguirse hasta lograr la propuesta de camino final. Capas de partida necesarias: Mapa (raster) con la localización del destino de la ruta. Coordenadas X, Y del punto de origen de la ruta.
Barrera o barreras cartografiadas:
según el objetivo de la ruta, el ámbito de estudio, etc. Por término general se incorporan barreras representadas bajo el modelo raster. Traducción de las barreras en superficies de fricción. Mediante reclasificación se otorga un valor de fricción a los distintos valores de la variable considerada barrera. La mínima fricción es «1» y la fricción de las barreras absolutas se indica con el valor «-1» si el programa contempla este tipo de barreras, o bien con un valor de fricción muy elevado. Cálculo de los costes de desplazamiento desde el destino hacia todos los píxeles de la zona en función de la distancia al punto de referencia y de la fricción impuesta por las barreras. Si se opta por el coste acumulado anisotrópico será necesario incorporar la capa de orientación de las celdas en grados. Finalmente se obtiene la ruta óptima o «ruta de mínimo coste». Determina la ruta de menor coste entre dos puntos de referencia a partir de una acumulación del coste de desplazamiento. La ruta se utiliza en conjunción con el coste de desplazamiento (donde está implícito el destino en el píxel de mínimo coste) y la posición del origen a partir de su par de coordenadas.
Resultados obtenidos:
El resultado de un análisis de rutas óptimas se materializa en dos archivos vectoriales de geometría distinta: Vectorial de líneas con el trayecto correspondiente a la ruta de mínimo coste. Vectorial de puntos equiespaciados tomados a lo largo del trayecto de la ruta de mínimo coste para los que se dispone de coordenadas X,Y, el valor de coste en esa localización, la distancia horizontal al extremo de la ruta, la distancia real y el valor extraído de las capas raster adicionales que se hubiesen indicado en el análisis de ruta óptima.
Bases conceptuales de la modelización cartográfica y el álgebra de mapas:
El modelado cartográfico constituye una de las funciones clave de los SIG y, en definitiva, su verdadera potencialidad más allá de sus funciones básicas de almacenamiento, consulta y visualización de la información. Gracias al diseño y desarrollo de modelos cartográficos es posible dar respuesta en tiempo real a necesidades o problemas particulares de componente espacial. Desde una perspectiva geográfica, la obtención de resultados válidos obliga al usuario a encadenar diferentes procedimientos de análisis. En esta estrategia intervienen habitualmente varios niveles (capas) de información (relieve, usos del suelo, comunicaciones, etc.), así como diversos operadores analíticos que actúan sobre los datos. Ambos elementos (capas y operadores) interactúan en los modelos cartográficos para dar soluciones adecuadas a cada tipo de problema planteado.
Definición de modelo cartográfico:
Muchos de los conceptos comúnmente asociados a los SIG para evocar procesos de análisis cartográfico han sido de gran utilidad en la resolución de problemas espaciales y en la toma de decisiones desde hace varias décadas. Es complicado fijar los orígenes del modelado cartográfico ya que su génesis es producto de la combinación de sólidas ideas y métodos de trabajo que finalmente se integran para facilitar su desarrollo en lo que se ha denominado genéricamente «modelos cartográficos», pero también se ha llamado «álgebra de mapas» (Tomlin, 1983) o incluso variantes de «matemáticas con mapas» (Berry, 1987). Es producto de la integración en los SIG de metodologías basadas en las técnicas de superposición de mapas nacidas ya a finales de la década de los 60 (Mcharg, 1969). Se entiende por álgebra de mapas el conjunto de técnicas y procedimientos que, operando sobre una o varias capas en formato raster, nos permite obtener información derivada, generalmente en forma de nuevas capas de datos. Entre las obras fundamentales para el trabajo con modelos cartográficos cobra especial protagonismo los trabajos de Tomlin quien ya a comienzos de la década de los 80 desarrolló ampliamente el concepto de álgebra de mapas. Según sus estudios, los modelos cartográficos se asemejan al álgebra tradicional para números: los números de una ecuación interactúan para generar nuevos números usando operadores matemáticos sencillos (suma, resta, multiplicación y división). Por ello, muchas veces los modelos cartográficos se consideran meras superposiciones aritméticas. Así, del mismo modo que existe el álgebra tradicional para los números, existe un álgebra para los datos numéricos contenidos en una capa digital. La tarea fundamental del álgebra es resolver el valor de una variable desconocida mediante el empleo de una relación (expresada normalmente como una ecuación) compuesta de variables, constantes y operadores predefinidos. El concepto de álgebra de mapas actualmente queda planteado como el conjunto de operaciones definidas sobre un conjunto de datos geográficos para el análisis y síntesis de la información.
En definitiva, el modelado cartográfico resume una metodología de trabajo SIG por la que se expresan y organizan variables y operaciones espaciales con el objetivo de obtener una respuesta cartográfica. El diseño, ejecución y validación de estos procedimientos se conoce como modelización cartográfica. Analogía de Tomlin con el lenguaje convencional:
Los fundamentos desarrollados por Tomlin emplearon una analogía basada en el lenguaje convencional sostenida en tres principios: Cada mapa equivale a un nombre (sujeto u objeto). Cada operación de análisis espacial equivale a un verbo. Los verbos tienen sus propios modificadores, que alteran su comportamiento. Al igual que en el lenguaje convencional, los verbos actúan sobre los nombres; esto es, los operadores actúan sobre los datos. Sobre esta base se relaciona una secuencia de comandos, de forma que el resultado de una operación puede ser el comienzo de una nueva operación. El álgebra de mapas amplía la perspectiva de la superposición lógica al permitir operar variables binarias con otras que cuentan con más categorías; por ejemplo, a partir de operaciones de multiplicación. Tomlin y su equipo demuestran que es posible crear un número ilimitado de combinaciones de secuencias operativas, siempre condicionadas por el usuario. Muchas de estas combinaciones pueden tener una importante utilidad en gran número de problemas analíticos concretos. Una secuencia de operaciones se conoce como modelo cartográfico y el proceso combinatorio es la modelización cartográfica. Un modelo cartográfico define y ensaya una serie de operaciones a partir de un amplio rango de operadores analíticos que ofrecen los SIG, que se combinan en un número ilimitado de formas con el objeto de generar nueva información que puede ser útil para dar respuesta a problemas complejos. La definición teórica de un modelo cartográfico puede reducirse a un diagrama de flujo (flowchart) en el que se reúnen los datos y los procedimientos a realizar con los mismos en el contexto de un estudio concreto. Su mayor interés radica en la posibilidad que se le ofrece al usuario de organizar y estructurar los datos y las operaciones.
Estrategias de generación de modelos cartográficos:
Existen distintos modelos predefinidos que pueden usarse para ámbitos variados y capas diversas; si bien, el usuario tiene la oportunidad de generar los suyos propios en función de los objetivos específicos a los que un modelo cartográfico debe dar respuesta. Pueden seguirse dos estrategias en el diseño de modelos cartográficos: Estrategia directa (de principio a fin):
A partir de los datos disponibles, el usuario va realizando las distintas operaciones hasta llegar al resultado final. A pesar de ser el procedimiento más empleado, tiene la desventaja de que los datos de partida condicionan el resultado final. Estrategia inversa (del final hacia el principio):
Cuestiones orientativas clave: Con independencia de la estrategia a seguir, la persona encargada de la implementación del modelo cartográfico SIG debe identificar y plantear con claridad el problema y su solución y contestar de antemano las cinco cuestiones orientativas: 1. ¿Qué valores tendrá el resultado final? 2. ¿Qué representarán estos valores? 3. ¿Qué datos son necesarios para llegar al resultado final? 4. ¿Cómo se combinan estos datos? 5. ¿Cómo se traduce cada uno de los pasos al lenguaje del SIG?
Cuatro fases de desarrollo del modelo cartográfico (Burrough, 1986):
1. Identificación de los niveles o grupos de datos requeridos. 2. Utilización de la lógica y lenguaje natural para desarrollar el proceso y así poder llegar al resultado esperado. 3. Creación del diagrama de flujos con los pasos anteriores (macro modeler). 4. Incorporación de los comandos necesarios para desarrollar las operaciones.
Diseño y ejecución de modelos cartográficos: el condicionante de los programas SIG:
De las fases descritas anteriormente, el presente apartado se centra en describir los elementos principales del diseño de modelos cartográficos, a modo de diagramas que incluyen cada uno de los pasos teóricos en un lenguaje entendible por los SIG. Las particularidades de los modelizadores SIG pueden cambiar de un programa a otro; incluso, su denominación puede presentar ciertas variaciones (Macro Modeler, Modelizador Sextante, etc.). Se presentan a continuación carácterísticas generales de las herramientas que permiten implementar la modelización cartográfica, refiriéndose a ellas de forma genérica como modelizadores SIG. Los modelizadores SIG ofrecen un entorno gráfico para la modelización cartográfica de gran potencia y fácil manejo. Con este tipo de herramientas el usuario está en condiciones de integrar los niveles de información y las funciones de análisis necesarias al tiempo que dibuja el correspondiente diagrama de flujo que encadena unos y otros. El resultado es un modelo gráfico tan complejo como desee el usuario, que permite inspeccionar los elementos y ejecución en etapas sucesivas, así como los datos que se van generando en cada paso.
Los elementos básicos de un modelo cartográfico:
Elaborar un modelo cartográfico mediante un modelizador SIG consiste en reunir en una ventana gráfica tres tipos de elementos del modelo: los datos, los algoritmos u operaciones junto con sus modificadores si fuese necesario, y los conectores. Cualquier elemento incorporado en un modelo puede ser eliminado por el usuario. Los datos pueden ser matriciales (raster) o vectoriales. Junto a estos datos cartográficos también es posible incorporar en un modelo cartográfico otros datos, como tablas de carácter alfanumérico. Si bien, en supuestos de álgebra de mapas lo más habitual será incorporar capas raster, o bien vectoriales en inicio que dentro del propio modelo y previo a su superposición son objeto de rasterización. Los algoritmos u operaciones se pueden incorporar al modelo cartográfico a partir de un listado que reúne el conjunto de operaciones disponibles al igual que cuando se accede desde el exterior del modelizador. Dentro de la ventana de modelización SIG se accede a estos algoritmos a partir de los «procesos». Además, es posible que alguno de estos procesos requiera de parámetros externos (modificadores) que se incluyen desde las entradas (por ejemplo, valor numérico). Los conectores vinculan los elementos anteriores, datos y operadores, dando sentido de flujo al conjunto de procedimientos establecidos. Datos, comandos y conectores se sitúan en pantalla de modo interactivo, pudiendo el usuario situar cada elemento en la posición más conveniente.
bjetivo.
Reglas para la ubicación de elementos:
Algunas reglas deben seguirse en las pautas de ubicación de los elementos que integran un modelo cartográfico, con el objeto de mejorar la legibilidad y ejecución del diagrama: La secuencia debe definirse de izquierda a derecha y de arriba hacia abajo, en el mismo orden que la lectura convencional. De este modo, los datos de partida se sitúan en la parte izquierda de la ventana y los resultados finales en la esquina inferior derecha. Se debe evitar el solapamiento de elementos y, en especial, el cruce de conectores.
Ejecución del modelo:
Una vez que se han incorporado a la ventana gráfica los elementos del modelo cartográfico, su puesta en funcionamiento se asemeja a la ejecución de un fichero de programación. Normalmente los modelizadores incorporan la opción de ejecutar o puesta en marcha. Con esto comienzan los procedimientos de cálculo encadenados. En su ejecución el sistema solicitará del usuario los datos que estime oportunos para completar las operaciones y finalmente producirá los resultados que se incorporarán a la vista que corresponda.
Almacenamiento y empleo posterior del modelo cartográfico:
Una vez que se comprueba que el funcionamiento del modelo es correcto, éste puede guardarse de forma permanente para su uso posterior. En gvSIG los modelos cartográficos se almacenan con la extensión «.Model» y al ser recuperados mantienen su definición íntegra, con la localización gráfica de sus componentes.
Valoración de la modelización cartográfica: ventajas e inconvenientes:
La modelización cartográfica como método de trabajo y de resolución de fases encadenadas mediante SIG tiene una serie de ventajas e inconvenientes que es necesario precisar. Ventajas:
1. El usuario aprende rápidamente a aplicar el SIG en aspectos prácticos y concretos. 2. Supone un método de trabajo que clarifica las fases de desarrollo desde su comienzo, dado que el problema debe definirse claramente, así como los datos y pasos necesarios para su resolución. 3. El diseño del diagrama de flujo exige una reflexión detallada de cada paso, útil para todos los planteamientos prácticos SIG, aunque no constituyan modelos cartográficos. Esto hace que la metodología sea abierta y pueda ser aplicada por otros usuarios. 4. Facilita la comparación de diferentes escenarios, ensayando una misma secuencia en distintas zonas. 5. Permite la simulación de procesos temporales e hipotéticos: análisis del tipo ¿qué ocurre si…? Que no son posibles sin un SIG. Inconvenientes:
1. La modelización cartográfica asume que los procesos se comportan de forma determinística, es decir, el usuario conoce a priori su comportamiento, lo que no siempre es cierto. 2. Pueden existir problemas operativos al trabajar con variables nominales o jerarquizadas. 3. Se asume que la información contenida en el SIG es absolutamente correcta, lo que no siempre es cierto. Los resultados están sujetos a un error potencial posicional y temático. Más aún, los errores de partida van propagándose a cada paso, pudiendo llegar a invalidar los resultados. Nota final:
Definición y conceptos asociados en la evaluación multicriterio:
La evaluación multicriterio es entendida como un conjunto de operaciones espaciales para la adopción de decisiones, teniendo en consideración simultáneamente varios criterios o condiciones (factores y restricciones).
Una decisión es una elección entre varias alternativas. La decisión se basa en una serie de criterios. En una evaluación multicriterio, se realiza la combinación de una serie de criterios que sirva de base para la toma de decisión en función de un objetivo específico.
Mediante una evaluación multicriterio, las capas o niveles con los criterios que definen la idoneidad son combinadas para generar un mapa de capacidad de acogida (idoneidad), a partir del cual se realizará la selección final (lo que se denomina normalmente una solución multicriterio). Tipos de criterios Los criterios pueden ser de dos tipos: Factores:
Restricciones:
Son de naturaleza discreta/cualitativa y se consideran, al menos en su formulación, de carácter booleano-binario (tal como restricciones de zonas de interés ecológico, cursos de agua, buffers, etc.) y sirven para excluir determinadas áreas del proceso de selección, ejerciendo un efecto de máscara que no puede compensarse con otras carácterísticas. Las zonas excluidas por una restricción quedan eliminadas como alternativa en la toma de decisiones con independencia de que sean muy adecuadas en base a otras condiciones. Conceptos fundamentales:
En la evaluación multicriterio los condicionantes que actúan como factor cuentan con la particularidad de presentar un comportamiento graduado entre lo que es óptimo y la adecuación nula, denominado lógica difusa. Con esta filosofía, se superan las limitaciones de la lógica binaria de las superposiciones booleanas y la realidad ya no se interpreta de forma categórica como 0|1, sino que entre el óptimo de adecuación (1) y la nula adecuación (0) existen escalas intermedias de adecuación (0,1; 0,2; etc.). Peso o importancia relativa:
Nivel de riesgo:
Además de la compensación, cualquier Evaluación Multicriterio está caracterizada por cierto nivel de riesgo asumido, que influirá notablemente en el mapa final de idoneidad. Finalmente, se concreta la distribución de zonas aptas mediante el mapa de solución multicriterio.
Fases de la evaluación multicriterio:
El método multicriterio se desarrolla a partir de cinco fases encadenadas en las que el inicio (la fase 0) es la determinación del objetivo que se persigue con el método que posteriormente se desarrollará. Por ejemplo: identificar zonas para nuevas localizaciones industriales, para crecimiento residencial, detectar zonas con riesgo de incendio, localizar sectores homogéneos según una serie de carácterísticas, etc. Sobre la base de uno o varios objetivos, la fase 1 de desarrollo de la evaluación multicriterio consiste en identificar los criterios o variables que intervienen en la búsqueda de un objetivo. A continuación, en la fase 2 se procede a la preparación de los factores y restricciones. Posteriormente, en la fase 3, se realiza la ponderación de los factores. Finalmente, en la fase 4 se combinan los factores con su peso y las restricciones según corresponda. A las cinco fases descritas se une con frecuencia una fase adicional de interpretación de resultados conocida como solución multicriterio.
Identificación de los criterios: factores y restricciones:
Para cada objetivo se deben seleccionar las variables, o criterios, que condicionan el hecho de que una ubicación sea apta para un determinado uso o fin. Además de identificar las variables-criterio es fundamental distinguir cuáles actúan como factor (cuantitativas, continuas) y cuáles como restricción (cualitativas, discretas) ya que según esta diferenciación intervendrán de diferente manera en las fases siguientes y su adaptación para la evaluación multicriterio será también distinta.
Preparación de factores y restricciones Los factores se traducen en mapas de conjuntos difusos en los que cada celda asume un valor de adecuación desde 0 (adecuación nula) a 1 (óptimo). Para atribuir estos valores de adecuación gradual en la lógica difusa se recurre a alguna de las funciones de pertenencia a un conjunto difuso. Estas funciones tienen valores entre 0 y 1 (Eje Y) y definen el grado de pertenencia de una celda a ese nivel de adecuación, colocándose en el Eje X de la función la variable que corresponda con el factor concreto objeto de transformación (metros de altitud, grados de pendiente, metros de distancia, etc.). Con frecuencia pueden distinguirse varios tipos de funciones, que pueden variar de unos programas SIG a otros. Por ejemplo, funciones lineales, funciones de tipo sigmoidal («forma de S»), funciones en forma de J, etc. Con ajuste a estas funciones el sistema es capaz de asignar a cada píxel de un factor un valor de adecuación en la capa difusa resultante, adscribiendo el valor que correspondería en Y según el modelo de función a cada valor situado en X (valores originales de las celdas). Parámetros necesarios para la transformación de factores:
Lectura de valores mínimos y máximos de la capa de referencia. Definición del tipo de función de pertenencia difusa (lineal, sigmoidal, etc.) según los modelos posibles del software SIG. Definición del comportamiento de la función: si se trata de una función creciente (a medida que aumenta el valor de la variable, aumenta la adecuación para el objetivo final) o decreciente (a medida que aumenta el valor de la variable, disminuye la adecuación para el objetivo final). Definición de puntos de control o puntos de inflexión, según el condicionante que supone el factor en la toma de decisiones. Preparación de restricciones:
La preparación de criterios incluye también la preparación de las restricciones; si bien su tratamiento cambia de forma considerable respecto a lo planteado para la preparación de los factores. Las restricciones por su naturaleza (cualitativa) imponen condicionantes absolutos (no se pueden compensar) por lo que su preparación se vincula directamente a la lógica booleana, considerándose capas resultantes de la preparación basadas en niveles categóricos de 0 y 1 puros (adecuación nula o adecuación óptima), donde las celdas de la restricción con valor 0 ejercen un efecto máscara (anulan esa zona como posible lugar para la ubicación de un determinado objetivo).
Ponderación: establecimiento de pesos de los factores:
El método multicriterio permite establecer una serie de pesos relativos para los factores considerados. En ayuda a la toma de decisiones con frecuencia los pesos se generan a partir de una serie de comparaciones por pares, con la que se mide la importancia relativa de los factores para la decisión de ubicar cierto uso en una zona concreta. Estas comparaciones por pares se analizan para producir una serie de pesos que suman 1 (pesos en tantos por uno). Por tanto, se genera una matriz simétrica (tantas filas y columnas como factores se consideren en la toma de decisiones). En cada celda de la matriz por pares se mide la importancia del factor de la fila con relación al de la columna.
Si son igual de importantes el valor en la matriz debe ser 1; si es más importante el de la fila se le dará un valor hasta 9 y si es más importante el de la columna se le dará un valor hasta 1/9. Se suele aplicar al final un índice de consistencia que mide si las importancias relativas son coherentes o si por el contrario presentan alguna incongruencia, con lo que el usuario en ese caso debería revisar las importancias relativas otorgadas.
Evaluación multicriterio:
Por evaluación multicriterio (como fase de análisis en el método) se entiende la fase de combinación de todos los criterios preparados en la toma de decisiones. Esta operación permite obtener un mapa de adecuación para ubicar un uso (lograr el objetivo planteado) en función de ciertos criterios (factores preparados y ponderados a partir de sus pesos y restricciones preparadas para enmascarar la zona). Hay diferentes métodos posibles para esta fase de evaluación multicriterio, siendo uno ampliamente extendido el que corresponde con la Combinación Lineal Ponderada (Weighted Linear Combination, WLC) donde los criterios pueden incluir tanto factores ponderados como restricciones. Para ello, se multiplica cada factor por su peso y, posteriormente, se suman los resultados. Éstos serán multiplicados por las áreas de restricción (con valor 0), definiendo así las zonas de exclusión (enmascaradas). En este caso, a mayor peso del factor mayor influencia tendrá este factor en el mapa de adecuación final. Fórmula de Combinación Lineal Ponderada: C.L.P. PX1 = (CD1PX1 × PF1) + (CD2PX1 × PF2) + … + (CDNPX1 × PFN) × RPX1 Siendo: • C.L.P. PX1 = Combinación Lineal Ponderada en el Píxel 1 • CDiPX1 = Valor del píxel 1 en la capa-factor Conjunto Difuso i • PFi = Peso del factor i • RPX1 = Valor preparado (binario) de la restricción en el Píxel 1
Fase adicional: solución multicriterio:
Tras realizar una evaluación multicriterio se obtiene un mapa en el que cada píxel asume un valor de adecuación para alojar un determinado uso u objetivo (desde 0, zonas no aptas, excluidas de la posible ubicación final, hasta 1 para las zonas perfectas, más adecuadas). Normalmente este mapa se suele interpretar en un paso adicional «la solución multicriterio» en el cual se establecen intervalos a modo de jerarquías de adecuación de los píxeles para un objetivo final. Por ejemplo: selección de las celdas de adecuación superior a 0,8; o a 0,7 si se es menos exigente; o bien, establecimiento de zonas muy adecuadas (de 0,8 a 1); zonas adecuadas (de 0,6 a 0,8) y no adecuadas (por debajo de 0,6). La solución multicriterio es, en suma, la fase adicional de interpretación de los resultados obtenidos de la evaluación multicriterio, por lo que constituye cartografía final de síntesis de fácil interpretación categórica.
Solución multiobjetivo:
La evaluación multiobjetivo permite desarrollar de forma paralela la adecuación de una zona para dos o más objetivos de forma simultánea, lo que puede provocar en ciertos sectores conflictos de objetivos cuando se trata de zonas adecuadas para los diferentes objetivos analizados en la evaluación multicriterio-multio
