sábado, 21 de noviembre de 2015

EL ÍNDICE DE VULNERABILIDAD PREVALENTE


El Riesgo, que puede actuar sobre un conjunto social o una porción del mismo y sobre sus bienes, está compuesto por la concomitancia de dos elementos fundamentales conocidos en la literatura como: Amenaza y Vulnerabilidad; así, no existe amenaza (probabilidad de ocurrencia de un evento devastador) si no existe un estado de susceptibilidad por parte de un grupo social, y viceversa. En tal sentido, ningún fenómeno natural se constituye amenaza en tanto no haya una exposición por parte de un grupo humano incluyendo sus elementos físicos, socioeconómicos y ecológicos, factor que lo otorga el caracter de vulnerabilidad al tratarse de un fenómeno completamente social, emparentado a los niveles de desarrollo que experimente el grupo humano. 

Considere el ejemplo de una comunidad que presenta fragilidad ante la probabilidad de verse afectada por un fenómeno de naturaleza geológica. En este caso, el peligro de producir efectos adversos producto de procesos geológicos endógenos o exógenos estará cuantificado en las pérdidas (interprétese en vidas humanas y bienes económicos) provocadas a dicha comunidad. La vulnerabilidad es entonces el factor interno del riesgo de carácter social, que define el grado de susceptibilidad frente a las amenazas que le afecten y considera también la capacidad de sobreponerse posterior a la afectación. La vulnerabilidad, para efectos del presente informe, estará compuesta por tres factores esenciales: exposición, fragilidad social y falta de resiliencia, elementos que conjugados relacionan una serie de condiciones sociales necesarias para que una comunidad experimente debilidad frente a la afectación de un eventual suceso peligroso. 

Para poder reducir el riesgo a través de la toma de decisiones con el fin de aminorar la vulnerabilidad subyacente, se hace absolutamente necesaria la implementación de un indicador que identifique y dimensione el riesgo presente en una sociedad, la exposición de los niveles de riesgo maximizando el nivel de detalle, con el propósito de monitorear la efectividad que articule las medidas adoptadas para la gestión del riesgo. En tal sentido, el Índice de Vulnerabilidad Prevalente caracteriza las condiciones predominantes de vulnerabilidad del país en términos de exposición en áreas propensas, su fragilidad socioeconómica y su falta de resiliencia, los cuales son aspectos que favorecen el impacto físico directo y el impacto indirecto e intangible en caso de presentarse un fenómeno peligroso. Este índice es un indicador compuesto que intenta caracterizar, con fines de comparación, una situación de un país.

COMPONENTE DE LA GESTIÓN DEL RIESGO EN LOS PLANES NACIONAL, DEPARTAMENTAL Y MUNICIPAL DE DESARROLLO


En las últimas décadas, los acontecimientos con potencial de daño en términos de infraestructura, ecología y ambiente o de tipo social que han azotado distintas regiones del país amenazando el estado normal de dichos conjuntos sociales, ha permitido transformar el rumbo de la política ambiental y del riesgo del país permitiendo crear nuevos instrumentos o modificar algunos existentes. Los esfuerzos focalizados hacia la ayuda a poblaciones más vulnerables, rehabilitación y reconstrucción en situaciones post-desastre, la redistribución de los recursos actuales, y la necesidad apremiante de replantear las estrategias de prevención en algunas regiones para evitar consecuencias adversas ante futuros fenómenos naturales o de tipo antropogénico; y que en tal sentido, constituya una oportunidad para corregir errores de planificación y ejecución en el pasado y en una visión más generalizada, la prevención y preparación para futuros eventos riesgosos para una comunidad, conociéndolos y adaptándose a los mismos. 

En este sentido, para garantizar la sostenibilidad del desarrollo económico y social del país, resulta prioritaria la incorporación de medidas que tiendan a disminuir la vulnerabilidad frente al riesgo de desastre en los sectores y en la población. Según Naciones Unidas, los desastres naturales tienen un impacto desproporcionado en los países pobres y en desarrollo, y están especialmente asociados a viviendas en condiciones inseguras. En esta materia, se encuentra que en Colombia cerca de 780.000 hogares, es decir alrededor del 38% del total, viven en condiciones de precariedad, y por tanto se encuentran especialmente amenazados ante la ocurrencia de desastres naturales causados por el cambio climático. A partir de 2005, y tras la formulación e implementación del programa para la reducción de la vulnerabilidad fiscal del Estado frente a los desastres, Colombia ha dirigido su atención en forma gradual hacia la necesidad de reconocer la gestión del riesgo en la planificación del territorio y los sectores. No obstante, la gestión de desastres del país presenta grandes dificultades como son: (i) prevalencia del enfoque ‘emergencista’ en el diseño de las políticas y respuesta del gobierno, (ii) debilidad en la inclusión y aplicación de disposiciones de reducción de riesgo de desastre en los planes de ordenamiento territorial, (iii) debilitamiento de la capacidad técnica del Sistema Nacional de Prevención y Atención de Desastres (SNPAD), (iv) escasa investigación y desarrollo tecnológico, (v) limitada coordinación entre entidades, y (vi) ausencia de una estrategia integral de gestión de riesgo que fije las políticas y oriente las inversiones en el nivel nacional y municipal. (Plan Nacional de Desarrollo).


Con base al anterior sistema nacional de prevención y atención de desastres reglamentado por le decreto 919 de 1989, se ha visto la necesidad de mejorar y actualizar el desempeño y direccionamiento del mismo, adoptando una visión integral de gestión de riesgo que incluya el conocimiento y la reducción del mismo, y desde luego, el manejo oportuno y efectivo de los desastres asociados con amenazas naturales, socio-naturales o antrópicas. Por tanto, que la implementación de una política orientada a la gestión del riesgo a cargo del sistema nacional de gestión de riesgo de desastre requiere de una entidad especializada de orden nacional que asegure la coordinación y transversalidad en la aplicación de las políticas sobre la gestión del riesgo de desastre, en las entidades públicas, privadas y en la comunidad en general para optimizar la gestión del riesgo en el país.

MÉTODOS PARA MEDIR AMENAZAS NATURALES


En el análisis de las amenazas naturales se pueden utilizar métodos del tipo directo o indirecto, los métodos directos corresponden a métodos empíricos, es decir métodos que utilizan la simple representación (a modo de inventario) de los eventos ocurridos en el pasado. El supuesto que subyace en estos métodos, es que los territorios afectados en el pasado son los que tienen mayor probabilidad de experimentar eventos nuevos y similares en el futuro. Y los indirectos se basan en información propia del evento e información complementaria. 

Los distintos métodos de análisis regularmente emplean datos históricos, con el propósito de identificar las intensidades, duración y frecuencia de una amenaza, con el objeto de mejorar el pronóstico sobre futuras amenazas. Por lo tanto, en base a la información, análisis y evaluación resultantes de la aplicación de uno o más métodos entrega insumos para la elaboración de modelos prospectivos y generación de diversos escenarios, tales como, escenario más probable (factible) y peor escenario (esperado). ((SUBDERE), 2011)

Estos métodos pueden ser: Determinísticos, heurísticos, empíricos y probabilistas.


METODOS DETERMINISTICOS

Se basa en la definición de un escenario particular con magnitud e intensidad conocida el cual sucede en un determinado lugar, el escenario puede identificarse como el mejor, más probable y peor. ((SUBDERE), 2011)

Son métodos muy fiables y precisos cuando se dispone de datos válidos. Permiten el análisis no sólo de la susceptibilidad, sino también del alcance y de la frecuencia del fenómeno. Existe una amplia variedad de métodos determinísticos disponibles para realizar análisis de estabilidad, desde análisis de talud infinito en su caso más simple hasta modelos complejos tridimensionales. 

Estos métodos requieren el uso de modelos de simulación, a veces se utilizan métodos estocásticos para seleccionar los parámetros de entrada. Aunque los métodos determinísticos son más adecuados para evaluar la inestabilidad en áreas pequeñas, se han utilizado análisis de susceptibilidad para grandes áreas (regionalización) con el objetivo de discriminar zonas con parámetros de seguridad significativamente distintos. (Tesis Doctorales en Red)

Los métodos determinísticos utilizan análisis mecánicos y modelos de estabilidad con base física para determinar el factor de seguridad de una ladera concreta. Son métodos muy fiables y precisos cuando se dispone de datos válidos sobre los parámetros reintentes de las laderas. Los métodos determinísticos son más adecuados para evaluar la inestabilidad en áreas pequeñas. (Herrera).

Fortalezas

  • Se basa en los modelos físicos soportados.
  •  Permite analizar varios escenarios.
  • Da información de susceptibilidad y de amenaza.

Debilidades

  • Requiere precisión de los parámetros de entrada.
  • Modelos predictivos difíciles de evaluar.
  • Los modelos complejos son difíciles de evaluar en escalas pequeñas.

METODOS HEURISTICOS 

Los métodos heurísticos se basan en el criterio de expertos que clasifican las zonas de amenaza en el mapa, por lo que están supeditados a la subjetividad de los expertos. ((SUBDERE), 2011)

Los métodos heurísticos se basan en categorizar y ponderar los factores causantes de inestabilidad según la influencia esperada de éstos. Son métodos conocidos como indirectos, los resultados de los cuales se pueden extrapolar a zonas con una combinación de factores similar. Un procedimiento de este tipo es el análisis cualitativo basado en combinación de mapas de factores. Estos métodos permiten la regionalización o estudio a escala regional y son adecuados para aplicaciones en el campo de los sistemas expertos. El análisis heurístico introduce un grado de subjetividad que imposibilita el comparar documentos producidos por diferentes autores. (Tesis Doctorales en Red)

MÉTODOS PROBABILÍSTICOS

Los métodos probabilísticos establecen relaciones estadísticas a partir de una serie de factores condicionantes tanto actuales como pasados. Usualmente los métodos heurísticos y los modelos probabilísticos se aplican a escalas de trabajo entre 1:5.000 y 1:100.000. ((SUBDERE), 2011)

Dentro de este grupo se encuentran los métodos estadísticos y el análisis de frecuencia. Son métodos indirectos cuyos resultados se pueden extrapolar a zonas distintas de las utilizadas para estimar la susceptibilidad, con condiciones geológicas y climáticas homogéneas. Estas aproximaciones permiten regionalizar los resultados. (Tesis Doctorales en Red)

Métodos Estadísticos Univariantes se dividen en dos grupos: los que utilizan el análisis condicional y los que no lo utilizan. El análisis condicional trata de evaluar la relación probabilística entre diversos factores relevantes para las condiciones de inestabilidad y las ocurrencias del fenómeno. Se basan en la superposición de uno o más factores con el mapa de distribución para obtener una probabilidad condicionada de cada factor a la presencia o ausencia de deslizamientos. Como resultado de la combinación de todos los factores se obtiene un mapa de polígonos de características homogéneas conocidas como unidades de condijo únicas. Para integrar y combinar toda la información se utiliza la técnica de las funciones de favorabilidad. Con ellas se realiza una transformación de cada clase continua o discreta para cada factor estudiado asignándole un valor entre 0 y 1. Posteriormente estos valores transformados se combinan entre ellos mediante reglas de integración y sus resultados se interpretan en términos de probabilidad según el teorema de Bayes. Otros modelos estadísticos no basados en las funciones de favorabilidad son el modelo basado en la combinación de factores Bradd considerado como el primer análisis cuantitativo de susceptibilidad, y su modificado el modelo del valor de la información, el modelo de mensaje lógico, el método de la matriz. (Tesis Doctorales en Red)

Los métodos estadísticos multivariantes estudian la interacción y dependencia de un conjunto de factores que actúan simultáneamente en la ocurrencia del fenómeno, para establecer la implicación que tienen cada uno de ellos. Se trata de una aproximación más objetiva que otras técnicas, situándose hoy como uno de los procedimientos con mejores resultados en la predicción espacial del fenómeno. Las técnicas estadísticas más utilizadas son la regresión múltiple y el análisis discriminante. El resultado de ambos métodos son funciones basadas en la combinación lineal de los factores de mayor significación estadística para definir las condiciones de inestabilidad. El análisis discriminante permite separar varias poblaciones de una misma muestra caracterizadas por las mismas variables a partir de la función discriminante. Esta es una combinación lineal de las variables independientes que refleja el distinto comportamiento de los individuos dentro de la muestra. La regresión múltiple por su parte, considera una única población y varios grupos de variables, siendo útil se buscan relaciones explicativas entre diversas variables. El método determina la influencia de un grupo de variables independientes sobre una o más variables dependientes. (Tesis Doctorales en Red).

sábado, 14 de noviembre de 2015

MAPAS CARTOGRÁFICOS CON IMÁGENES DE SATÉLITE AYUDARÁN A MEJORAR PREVENCIÓN ANTE EL FENÓMENO DEL NIÑO EN PERÚ



Los mapas cartográficos que diseña el Laboratorio en Geomática de la Escuela Cartográfica en Lima (Perú), en base a imágenes satelitales, contribuirá a mejorar los trabajos de prevención ante el Fenómeno el Niño y la lucha contra el narcotráfico, aseveró hoy el Ministros de Defensa, Jakke Valakivi. Tras la inauguración del primer Laboratorio en Geomática y el lanzamiento del Geoportal de Datos Fundamentales, Valakivi explicó que estos mapas cartográficos se están elaborando a pedido de diferentes gobierno regionales o las autoridades que evalúan el impacto del Fenómeno El Niño. "En base a imágenes satelitales, se puede graficar en un mismo mapa las zonas más vulnerables, inundables y contribuir en los trabajos de prevención", puntualizó. Además refirió que este laboratorio, ubicado en el Instituto Geográfico Nacional (IGN), cuenta con equipos de última generación, así como software cartográficos habilitados especialmente paras esta labor. Valakivi también destacó la importancia del Laboratorio de Geomática para de desarrollo y defensa nacional, ya que permite realizar trabajos específicos en materia de lucha contra el terrorismo y el narcotráfico. "Se podrá identificar en el Vraem las localidades y los caminos que pueden ser utilizados por malos elementos, eso permite hacer más efectivo nuestro trabajo", resaltó. 



Figura 1. Laboratorio de Geomática. Fuente: Adaptado de http://www.andina.com.pe/agencia/noticia-mapas-cartograficos-imagenes-satelite-ayudaran-a-mejorar-prevencion-ante-nino-584310.aspx#sidr-main

Del mismo modo, dijo que estos mapas cartográficos ayudará a perfeccionar la delimitación fronteriza de departamentos, provincias y distritos; lugares afectados por determinados eventos y determinar las zonas fértiles para agricultura."Esa es la ventaja, el proyecto de adquisición del satélite, que recientemente se ha materializado, está permitiendo bajar imágenes satelitales del territorio nacional y convertirlas en mapas para evaluar las zonas urbanas o zonas vulnerables de las diferente localidades", detalló. En ese sentido, aseveró que el trabajo del Laboratorio de Geomática es "poner la tecnología espacial al servicio de las poblaciones más vulnerables" y que pueden ser perjudicadas por el Fenómeno El Niño. Otra de las ventajas de esta nueva tecnología, según dijo, es reducirá el tiempo de elaboración de los mapas cartográfico, que antes demoraban cerca de una año. Ahora podrán hacerse de tres a seis meses, lo que mejora la productividad y ofrece información oportuna para tomar mejores decisiones.


A su turno, el jefe del IGN, general de brigada Marco Antonio Merino, informó que en la actualidad la entidad posee mapas cartográficos de todo el país, con escalas de 1 al 100,000 y mapas con escalas más específicas de determinadas ciudades. "Estamos en el gran proyecto de elaborar cartografía básica del 1 al 25,000, que es una escala más grande y que ofrece mayor información. En esta escala tenemos a las ciudades de Moquegua, Tacna, Ica y la zona del Vraem", aseveró. Merino, anunció que tienen previsto registrar con esta escala mapas cartográficos de Tumbes, Piura y Lambayeque; hecho que dotará de información geográfica actualizada y con mayor detalle. Ambas autoridades, finalmente, indicaron que en el laboratorio también se dictarán cursos de especialización a profesionales de instituciones publicas y privadas, así como a alumnos del Instituto de Educación Superior Tecnológico del Ejercito, sargento segundo Fernando Lorez Tenazoa.



Fuente: http://www.andina.com.pe/agencia/noticia-mapas-cartograficos-imagenes-satelite-ayudaran-a-mejorar-prevencion-ante-nino-584310.aspx#sidr-main

PLANIFICACIÓN ESTRATÉGICA EN EL MARCO DE LA ORDENACIÓN DEL TERRITORIO

La planificación es un proceso sistémico, creativo y participativo que sienta las bases de una actuación integrada a largo plazo que define el modelo de futuro, desarrollar estrategias y cursos de acción y en dónde intervienen regiones locales. Actúan en la construcción de unos objetivos colectivos y una perspectiva democrática a largo plazo. Esta metodología se desarrolla en paralelo a la planificación tradicional.

Para su desarrollo se acude al plan estratégico el cual corresponde a un plan intersectorial, una reflexión estratégica y visión global que complementa la planificación tradicional mas no la sustituye, integra actividades, posee una dirección común y articula y orienta procesos de planificación sectorial.

Los beneficios que ofrece la planificación estratégica pueden ser sintetizadas en: identifica tendencias para mejorar aspectos socioeconómicos, descubre oportunidades para el desarrollo de la ciudad, formula objetivos prioritarios para concentrar recursos, fortalece el tejido social, fortalece instituciones públicas y alta visibilidad política y social.

Sin embargo también presenta unos riesgos que merecen ser tenidos en cuenta a la hora de incorporación, esto son: la falta de responsabilidad para asumir el plan, excesiva importancia en los temas económicos, generalidad de los análisis técnicos, ausencia de conexión entre planes públicos y empresariales y el desinterés de los políticos por su implementación.

EL CONCEPTO DE ESPACIO EN LA GEOGRAFÍA

Desde un punto de vista conceptual, la secuencia de espacios inició como un espacio puro de símbolos y término con símbolos pero de realidades afectivas y memorias colectivas. Los primeros son objetivos y pueden ser descritos por métodos racionales más conocidos los últimos son más subjetivos los espacios matemáticos son forma pero carentes de significado humano. Los espacios experienciales no tienen forma pero tienen significado humano.

La geografía como ciencia espacial abarca este rango de espacios. Los geógrafos analíticos consideran que tienen poco en común pero todas buscan el conocimiento a lo largo del mismo espectro de concepciones de espacio aún con la variedad de términos espaciales que usan, una variedad que pueden confundir en el momento de instruir geógrafos. La forma como las diferentes terminologías espaciales puede ser entrelazada.

Cada vez que el espacio es visto desde un ángulo diferente, emerge una conceptualización diferente como punto de partida consideramos los espacios como una secuencia no lineal pero si jerárquica. La noción de progresión gradual se mantiene pero los espacios aparecen con dominios gradualmente limitados y contenidos dentro del espacio experimental. El análisis espacial es el enfoque general que usa la matemática y la estadística para derivar las propiedades cuantitativas de los espacios de interés para geógrafos y del espacio socioeconómico en particular.

TECNOLOGÍA LiDAR


Es una tecnología que permite determinar la distancia desde un emisor láser a un objeto o superficie utilizando un haz láser pulsado. La distancia al objeto se determina midiendo el tiempo de retraso entre la emisión del pulso y su detección a través de la señal reflejada. En esencia, el LiDAR permite la detección y medición a través de haces de luz. Se conocen fundamentalmente tres clases: el lidar aerotransportado, el lidar terretre, el lidar móvil.

Esta tecnología presenta una serie de generalidades, estas son, que emplea pulsos de luz para realizar la medición, el cálculo se realiza mediante intervalos de tiempos, posee un sensor activo aerotransportado, frecuencias de 22-500 Hz y se instala a una altura de 200 a 600 metros. Por otro lado, la tecnologías LiDAR posee cinco componentes: laser altimétrico, espejo rotatorio, sistema inercial de navegación, GPS aerotransportado, cámara digital (esta última es opcional). La captura de información se lleva a cabo a través de un determinado tipo de escaneamiento, que puede ser de tipo lineal, zig-zag, elipsoidal y de fibra óptica. Ahora bien, las principales aplicaciones de la información obtenida de este tipo de sensores se aluden a la producción de modelos digitales de superficie y sus derivados, a la clasificación en la que es posible extraer elementos asociados a tipos de coberturas, a la clasificación de tierras, a la elaboración de modelos hidrológicos, a la determinación de biomasas.

Las principales ventajas a considerar son que dicha tecnología permite obtener una alta precisión, una alta densidad de puntos haciendo más rica la información a filtrar y la operación se puede realizar diurna o nocturna y no es susceptible a condiciones atmosféricas. Sin embargo, también presenta una serie de desventajas las cuales se asocian a los problemas en la adquisición de datos, no se pueden distinguir líneas de quiebre, existen errores de reflexión y los costos muy altos de los equipos consecuentemente los costos del proyecto son muy altos.

CRITERIOS DE HÁBITAT Y TIPOLOGIAS DE UPZ


El desarrollo territorial de zonas urbanas y rurales constituye una herramienta fundamental para la gestión y la planificación de los municipios y distritos. En tal sentido, el objetivo de integrar la planeación a las dinámicas del espacio: física, económica, social y ambiental ha permitido estimular el desarrollo socioeconómico conociendo de antemano las características propias que identifican cada sector. Por ello, los criterios de hábitat y Las Unidades de Planeamiento Zonal para el Distrito Capital han adquirido suficiente relevancia en cuanto la primera define y precisa el planeamiento del suelo urbano teniendo en cuenta los aspectos del ordenamiento y el control normativo a escala local. 

Los criterios de hábitat permiten hacer una clasificación eficiente de las viviendas con base a sus características mediante la zonificación que a su vez considera: el uso del suelo, la planeación del asentamiento, los materiales de construcción, densidad inmobiliaria, estado de culminación del desarrollo, entorno inmediato de la vivienda, calidad del espacio público, grado de deterioro de la edificación y en general las características del paisaje urbano. ¿Por qué se estratifica las viviendas asentadas en los diferentes sectores de la ciudad? En consecuencia, la estratificación estudiada desde la perspectiva de la planificación y la ordenación del territorio se sintetiza en el cobro del impuesto predial y las contribuciones por valorización sin ignorar la focalización de subsidios a las familias menos favorecidas.

De acuerdo al documento técnico soporte del Decreto 619 del 2000 por el cual se adoptó el plan de ordenamiento territorial, las UPZ se clasificaron, en ocho grupos que se presentan a continuación: 

• Unidades tipo 1, residencial de urbanización incompleta: son sectores periféricos no consolidados, en estratos 1 y 2, de uso residencial predominante con deficiencias en su infraestructura, accesibilidad, equipamientos y espacio público. 

• Unidades tipo 2, residencial consolidado: son sectores consolidados de estratos medios de uso predominantemente residencial, donde se presenta actualmente un cambio de usos y un aumento no planificado en la ocupación territorial. 

• Unidades tipo 3, residencial cualificado: son sectores consolidados de estratos medios y altos con uso básicamente residencial, que cuentan con infraestructura de espacio público, equipamientos colectivos y condiciones de hábitat y ambiente adecuadas. 

• Unidades tipo 4, desarrollo: son sectores poco desarrollados, con grandes predios desocupados. 

• Unidades tipo 5, con centralidad urbana: son sectores consolidados que cuentan con centros urbanos y donde el uso residencial dominante ha sido desplazado por usos que fomentan la actividad económica. 

• Unidades tipo 6, comerciales: son sectores del centro metropolitano donde el uso está destinado a las actividades económicas terciarias de intercambio de bienes y servicios (locales y oficinas). 

• Unidades tipo 7, predominantemente industrial: son sectores donde la actividad principal es la industria, aunque hay comercio y lugares productores de dotación urbana. 

• Unidades tipo 8, de predominio dotacional: son grandes áreas destinadas a la producción de equipamientos urbanos y metropolitanos que, por su magnitud dentro de la estructura urbana, se deben manejar bajo condiciones especiales. 


Analizando los criterios de hábitat y la Clasificación de las UPZ que obedecen a una organización según las características predominantes del sector. Ahora bien, si se compara el Criterio 1: Pobreza con las Unidades tipo 1 es posible apreciar que ambas categorías dan cuenta de urbanizaciones o barrios de estratos 1 y 2 donde la mayoría de estos sectores son zonas periféricas, sin planificación urbanística, y con un trazado irregular en las vías internas. Las Unidades tipo 1 establece que el uso predominante es el residencial, sin embargo, presenta deficiencias en infraestructura, equipamientos y espacio público en general. De esta apreciación es posible inferir que en las Unidades tipo 1 la pobreza es una de sus principales características. 


Santa Fe, por ejemplo, una localidad con una evidente presencia de los tres primeros criterios de hábitat (desviación social, pobreza, y deterioro urbanístico) tiene cinco UPZ, dos de tipo comercial, dos de tipo residencial de urbanización incompleta y la otra de tipo residencial consolidado. Otro ejemplo claro que salta a la vista es el desarrollo progresivo sin consolidar (criterio 3) que experimenta la Localidad de Ciudad Bolívar interpretado a una caracterización general de viviendas en obra negra o con fachadas sencillas, rústicas. Casas cuya construcción se desarrolla por etapas. Densificación de viviendas que conllevan a una deficiencia en la accesibilidad y en general en la infraestructura del sector como es usual encontrar en las UPZ tipo 1. Ciudad Bolívar tiene ocho UPZ, de las cuales cinco son de tipo residencial de urbanización incompleta; una es de tipo residencial consolidado; una de tipo predominantemente dotacional y una de tipo 4, destinada al futuro desarrollo de la localidad. 


Por otra parte haciendo una descripción más detallada de las Unidades tipo 2 Residencial Consolidado que corresponde a sectores consolidados en su mayoría de estratos medios cuyo uso predominante es el residencial, y que actualmente se presenta un cambio de usos de suelo y un aumento no planificado en la ocupación territorial, características que son visibles en localidades cuyas viviendas han sido estratificadas bajo la modalidad 1 y 2. Por ejemplo, Bosa tiene cinco UPZ: dos son de tipo residencial de urbanización incompleta; una es de tipo residencial consolidado (características que se mencionaron anteriormente) y dos son de tipo desarrollo. En ese sentido las Unidades tipo 4 Desarrollo, abarcan predios poco desarrollados y en general predios grandes desocupados situación que permite la proliferación de bandas criminales, deterioro del paisaje urbanístico, aumento de población en estado de indigencia y en general al consumo y venta de estupefacientes. 


Las Upz tipo 4 están estrechamente relacionadas a los criterios 4 Deterioro Urbanístico (viviendas que en la mayoría de casos están abandonadas o presentan fachadas deterioradas por el descuido de sus ocupantes), Criterio 2 Desviación Social (lugares focos de delincuencia, actividades ilícitas y prostitución) y finalmente a la Pobreza relevando también abandono absoluto por parte del estado.

Referencias
Secretaria Distrital de Planeación recuperado de http://www.sdp.gov.co/
Instituto de Estudios Urbanos recuperado de http://institutodeestudiosurbanos.info/ 

domingo, 1 de noviembre de 2015

ORTOFOTOGRAMETRÍA


ORTOFOTOGRAFÍAS AÉREAS



Antes de mencionar lo que significa en fotogrametría digital una ortofotografía, cabe mencionar las diferencias que existen entre un mapa (proyección ortogonal) y una fotografía aérea (proyección cónica central), así las cosas, las fotografías se encuentran en segunda dimensión (se conocen dimensiones x e y), posee una escala aproximada (la escala es diferentes en los distintos sitios de la foto debido a que la escala está asociada a la altura de vuelo del avión), las fotografías presentan distorsiones geométricas (debido al relieve e inclinación del eje óptico). Por otra parta, en los mapas se tiene altimetría (lo que podría decirse que se puede hacer en tercera dimensión) y la escala del mapa es estándar (esta es la misma en todos los puntos sobre el mapa) sin considerar aspectos asociados a que un mapa es una representación convencional (posee simbología) de los rasgos físicos y culturales de una porción o toda la superficie terrestre.

Ahora bien, cuando se desea orrtorectificar una imagen (entiéndase como volver la foto aérea una proyección ortogonal como si se tratara de un mapa), se recurre frecuentemente a procesos orientados a corregir las distorsiones geométricas presentes en la fotografía aérea por su geometría de toma. En este sentido, se conocen os tipos de rectificaciones: aquella que permite transformar geométricamente la imagen eliminando la inclinación del eje óptico recibiendo del nombre de RECTIFICACIÓN CONVENCIONAL  y aquella la cual la corrección se hace pixel por pixel eliminándose la inclinación del eje óptico y el desplazamiento debido al relieve recibiendo el nombre de RECTIFICACIÓN DIFERENCIAL.

Figura 1. Fotografía aérea capturada desde distintos momentos de toma. En el centro foto aparentemente ortogonal. Fuente: Cartesia

En este orden de ideas, la ORTOFOTO no es más que una imagen con proyección ortogonal (90º) y que ha sido corregida o está libre de los errores o distorsiones geométricas de la fotografía aérea (desplazamiento debido al relieve e inclinación del eje óptico). Las ortofotos son una proyección ortogonal las cuales se eleaboran a una escala precisa cuyas características geométricas son similares a las de un mapa (en las ortofotos es posible medir los elemento u objetos contenidos en ella como si se tratara de un mapa).

REFERENCIAS

[1] Perez, J. (2001). Apuntes de Fotogrametría III. Universidad de Extremadura. Disponible en: http://redgeomatica.rediris.es/cartoprofesores/Fotogrametria/ApuntesFotogrametria3.pdf

MODELOS DIGITALES DE TERRENO (DTM)



MODELOS DIGITALES DE TERRENO (DTM)


Con frecuencia es posible encontrar definiciones en la literatura, asociando a los DTM el concepto de representación de la superficie terrestre o del relieve. Sin embargo, también es frecuente encontrar confusión cuando se habla de Modelo Digital de Terreno, Modelo Digital de Elevación y Modelo Digital de Superficie. Los modelos digitales de terreno también conocidos como digitales de elevación corresponden a la representación de la superficie sin elementos (construcciones, vegetación, etc.), es decir, superficie de terreno, por otro lado los modelos digitales de superficie incluyen en su representación los elementos que se ubican sobre la superficie del terreno (construcciones y vegetación). Los DTM, desde un punto de vista más riguroso, son una variable de tipo cuantitativa y continua, y por ende el principal uso corresponde precisamente con la obtención de información altimétrica (alturas) para la Cartografía.

Existen esencialmente dos tipos de estructuras para el almacenamiento de este tipo de modelos: La estructura vectorial TIN (red irregular de puntos) y la estructura raster GRID (grilla de pixeles en cuyos niveles digitales se almacenan valores de alturas). Y ambas estructuras ofrecen una serie de ventajas al operador a la hora de realizar el modelo, estas son: si se exponen teniendo en cuenta la estructura vectorial, ofrecen al usuario menos espacio en disco para su almacenamiento (estructura más sencilla), es más eficiente al amarrar la realidad de la superficie, bastante útil en terrenos irregulares o de pendientes pronunciadas y no se tiene redundancia en la información al momento de su elaboración, sin embargo, no se puede generalizar lo que podría considerarse como una desventaja. 

En cuanto a la estructura raster, algunas ventajas se asocian a su alta densidad de cobertura (grandes volúmenes de información), es una estructura que no está condicionada a un tipo particular de terreno, bastante útil para cubrir grandes extensiones, la adquisición de la información se puede hacer de forma automática, permite hacer más fácilmente futuros desarrollos y finalmente hay mayor redundancia de datos, lo que facilita su control, es decir, se puede escoger aquellos mejores puntos ya que existe mucha más información respecto de la estructura vectorial.


Figura 1. Estructuras TIN (izquierda) y GRID (derecha) para el almacenamiento de un DTM. Fuente: (Perez, 2001)

Cada una de las celdas del modelo tiene un tamaño (resolución espacial) en X (filas) e Y (columnas), entonces, cuando se dice que un DTM posee un GSD de 30 metros sugiere que el área que cubre cada celda en el terreno es de 30 metros. De manera que entre más pequeño sea el valor de la celda, mejor resolución espacial habrá, por lo que para el usuario se traduce en mayor detalle de los rasgos físicos del terreno; no obstante, el tamaño del archivo es mucho más grande (consume más espacio en disco).

REFERENCIAS


[1] Perez, J. (2001). Apuntes de Fotogrametría III. Universidad de Extremadura. Disponible en: http://redgeomatica.rediris.es/cartoprofesores/Fotogrametria/ApuntesFotogrametria3.pdf 

CORRELACIÓN DE IMÁGENES EN FOTOGRAMETRÍA DIGITAL



CORRELACIÓN DE IMÁGENES EN FOTOGRAMETRÍA DIGITAL


La correlación es un proceso o técnica automática mediante el cual se establece la correspondencia de un elemento en dos o mas fotografías, para ello se requiere que haya traslape entre ellas. La correlación, conocida también como Image Matching es de suma importancia al permitir en fotogrametría digital  la medición de puntos en: la orientación interna, relativa, procesos de aerotriangulación y captura de información para la elaboración de modelos digitales de terreno (DTM). En esencia, esta técnica explica el proceso de identificación automática de los puntos homólogos en imágenes digitales.

Ahora bien, para llevar a cabo este procedimiento se parte de un principio. Este consiste en que el operador sabe de antemano dónde ir a buscar el elemento, es decir, sabe aproximadamente dónde ir a buscar el elemento en la fotografía aérea, por lo que la búsqueda se lleva a cabo a partir de un área patrón (elemento que el usuario define para su búsqueda) y una ventana de búsqueda que corresponde a lugar donde se desea buscar el elemento o conjunto de puntos (compara el valor de un píxel del patrón con otro de la imagen a comparar, píxel a píxel hasta que haya correspondencia, nunca se tiene una correspondencia del 100% porque nunca son los mismos pixeles, de ahí que se hable de un porcentaje de correlación).

Comúnmente se asocian tres métodos en la correlación de imágenes: método de área base matching o método de las intensidades, método feature base matching o método por características y el método relacional. Sin embargo, también existen una serie de métodos computacionales de tipo directo (método de la función de covarianza, método del coeficiente de correlación, método de valores absolutos de diferencias de niveles de gris y método de línea vertical "LOCUS") e indirecto (transformada de fourier y hadamard que se llevan a cabo sobre grupos de datos que son comparados en correlación, después de esto el procedimiento es realizado en el dominio de las frecuencias y luego se lleva a cabo la correspondiente transformación inversa para volver al espacio del dominio y producir la función de correlación).

Fuente: Adaptado de los Apuntes de Clase Fotogrametría Digital Universidad Distrital "Francisco José de Caldas". Profesor: Carlos Mendoza 

EL CONCEPTO DE TOPOLOGÍA EN LOS SISTEMAS DE INFORMACIÓN GEOGRÁFICA


TOPOLOGÍA EN SIG

La TOPOLOGÍA es la rama de las matemáticas que estudia las propiedades cualitativas intrinsecas de las configuraciones espaciales que son independientes de la forma y el tamaño. En la topología como rama de las matemáticas, se tienen esencialmente dos corrientes: topología primitiva (teoría de grafos) y topografía actual (implícita o de mapa y topología de reglas).

Cabe mencionar un concepto importante en el estudio de la topología, y es precisamente el HOMEOMORFISMO, que corresponde a la operación matemática que permite deformar el espacio de tal manera que mantenga la continuidad de los elementos. De manera que la topología se encarga de estudiar las operaciones que deforman el espacio sin alterar la continuidad de los elementos, así pues, salta a la vista un ejemplo de este tipo de operaciones, y es justamente LAS PROYECCIONES CARTOGRÁFICAS asociadas a la correspondencia biunivoca entre los elementos de la superficie terrestres y los representados en un plano de proyección.  

Desde la topología se conserva: la contigüidad, contenencia, no contenencia, conectividad y coincidencia espacial, las cuales son denominadas en los sistemas de información geográfica como invariantes topológicas; aquellas que no se conservan como el área, perímetro, forma y distancias reciben el nombre de variantes topológicas. En este orden de ideas, es la topología implícita o de mapa la que permite construir las relaciones espaciales de los objetos geográficos almacenados en un SIG, de modo tal que permite validar las invariantes topológicas garantizando la INTEGRIDAD (considere como continuidad en el espacio) de la información geográfica que es almacenada en una base de datos espacial. Esta información, con base en lo anterior, es almacenada en tablas cuyos nombres son: arco-nodo, arco-polígono y contigüidad. 

Figura 1. Topología intrínseca o de Mapa. Fuente: https://www.professores.uff.br

Por otro lado, la topología de reglas (los usuarios comúnmente las definen en los software SIG) permiten revisar las invariantes topológicas para cada una de las geometrías (punto, línea y polígono) abstraídas en la BDE mediante una serie de reglas (los arcos deben estar conectados por nodos, la vecindad en dos poligonos debe ser garantizada por compartir el mismo arco, etc).