01 Fotogrametria Digital v01 [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Elaborado por: Ing. Eduardo Jesús Garay Cuentas DOCENTE DE LA FACULTAD DE INGENIERIA - UMSA

2020

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

FOTOGRAMETRIA DIGITAL Contenido 1 INSTRODUCCION A LA FOTOGRAMETRIA .................................................................. 5 1.1 2

DEFINICIÓN. ............................................................................................................ 5

CONCEPTOS BASICOS DE IMÁGENES Y CAMARAS .................................................. 5 2.1

LA LUZ. ..................................................................................................................... 5

2.2

PROCESO DE FORMACIÓN DE LA IMAGEN. ...................................................... 7

2.2.1 2.3

3

LA IMAGEN DIGITAL. .................................................................................... 11

TÉRMINOS BÁSICOS DE FOTOGRAFÍA Y DE LAS CAMARAS. ........................... 12

2.3.1

EL OBTURADOR ............................................................................................. 12

2.3.2

DIAFRAGMA .................................................................................................. 13

2.3.3

DISTINTAS APERTURAS DEL DIAFRAGMA .................................................... 13

2.3.4

CENTRO ÓPTICO DEL OBJETIVO ................................................................. 14

2.3.5

DISTANCIA FOCAL ........................................................................................ 14

2.3.6

SENSIBILIDAD: ................................................................................................ 16

2.3.7

EL SENSOR. ..................................................................................................... 17

2.3.8

PÍXELES REALES Y PÍXELES EFECTIVOS.......................................................... 19

CONCEPTOS BASICOS DE FOTOGRAMETRIA........................................................... 20 3.1

PUNTO PRINCIPAL. ............................................................................................... 21

3.2

DISTANCIA FOCAL f ............................................................................................ 22

3.3

DEFORMACIONES DE LA IMAGEN. .................................................................... 22

3.3.1

FACTORES FÍSICOS ........................................................................................ 22

3.3.2

FACTORES INFLUENCIADOS POR LA CÁMARA: ........................................ 22

3.4

CALIBRACIÓN DE LA CÁMARA. ......................................................................... 24

3.5

COORDENADAS IMAGEN. .................................................................................. 24

3.6

ORIENTACIÓN INTERNA. ...................................................................................... 25

3.7

ORIENTACIÓN EXTERNA. ..................................................................................... 26

3.7.1

ORIENTACIÓN RELATIVA. ............................................................................. 26

3.7.2

ORIENTACIÓN ABSOLUTA. ........................................................................... 27

3.8

BLOQUE FOTOGRAMÉTRICO .............................................................................. 28

3.9

TAMAÑO DEL PIXEL EN EL TERRENO GSD .......................................................... 29

3.10

PUNTO DE CONTROL TERRESTRE GCP ............................................................... 30

ING. EDUARDO GARAY

1

1

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

3.10.1

FUNCIÓN DE LOS PUNTOS DE CONTROL TERRESTRE GCP ....................... 31

3.10.2

COLOCACIÓN DE LOS PUNTOS DE APOYO EN TRABAJOS AÉREOS. ..... 32

3.11 4

PLANIFICACION DEL VUELO VUELO .......................................................................... 35 4.1

5

SOLAPES. ............................................................................................................... 33 APLICACIONES PARA LA PLANIFICACION DE VUELO ..................................... 35

4.1.1

DJI GROUND STATION PRO ......................................................................... 35

4.1.2

PIX4D CAPTURE ............................................................................................. 36

4.1.3

UGCS .............................................................................................................. 36

4.1.4

MISSION PLANNER ........................................................................................ 37

4.1.5

DRONEDEPLOY ............................................................................................. 38

4.2

CASOS MAS HABITUALES DE PLANFICACION DEL VUELO............................... 39

4.3

PARAMETROS........................................................................................................ 42

4.4

FORMULAS PARA LA PLANIFICACION DE VUELO ............................................ 43

PROCESO FOTOGRAMÉTRICO .................................................................................. 45 5.1

PROCESO FOTOGRAMÉTRICO CONVENCIONAL ............................................ 45

5.2

PROCESO FOTOGRAMETRICO AUTOMATICO ................................................. 45

5.2.1 6

7

8

CORRELACIÓN AUTOMATICA .................................................................... 47

MODELOS DIGITALES................................................................................................... 48 6.1

CARACTERÍSTICAS ................................................................................................ 48

6.2

MODELO DIGITAL DE SUPERFICIE Y MODELO DIGITAL DE ELEVACIÓN ......... 49

6.3

ORTOFOTOS. ......................................................................................................... 50

DEFICINICIÓN DE DRONE, UAV Y RPAS. ................................................................... 50 7.1

VUELO CON RPA .................................................................................................. 51

7.2

CLASIFICACION DE LOS RPAs............................................................................. 51

7.2.1

HELICÓPTERO ................................................................................................ 52

7.2.2

MULTIROTOR .................................................................................................. 53

7.2.3

ALA FIJA ......................................................................................................... 53

7.3

ALTURAS DE VUELO Y AUTONOMÍA ................................................................... 54

7.4

APLICACIONES ..................................................................................................... 55

BIBLIOGRAFÍA ............................................................................................................... 56

ING. EDUARDO GARAY

2

2

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

Índice de FIGURAS FIGURA 1 ESPECTRO ELECTROMAGNETICO ...................................................................... 6 FIGURA 2 RADIACION INFRAROJA ..................................................................................... 6 FIGURA 3 PROCESO DE FORMACION DE UNA IMAGEN ................................................. 7 FIGURA 4 ENFOQUE DE OBJETOS ....................................................................................... 8 FIGURA 5 ENFOQUE DE OBJETOS DE UNA CAMARA ....................................................... 8 FIGURA 6 DISTANCIA HIPERFOCAL ..................................................................................... 9 FIGURA 7 APERTURA DEL DIAFRAGMA ............................................................................ 10 FIGURA 8 CIRCULO DE CONFUSIÓN ................................................................................ 10 FIGURA 9 FORMACION DE LA IMAGEN DIGITAL............................................................. 11 FIGURA 10 PARTES DE UNA CAMARA DIGITAL ................................................................ 12 FIGURA 11 EL OBTURADOR ................................................................................................ 12 FIGURA 12 DISTINTAS APERTURAS DEL DIAGRAGMA ..................................................... 13 FIGURA 13 EFECTO BOKEH ................................................................................................. 14 FIGURA 14 DISTANCIA FOCAL ........................................................................................... 15 FIGURA 15 SENSIBILIDAD .................................................................................................... 16 FIGURA 16 FORMATO DE NEGATIVOS.............................................................................. 17 FIGURA 17 TAMAÑOS DE SENSORES ................................................................................. 18 FIGURA 18 PIXELES REALES Y EFECTIVOS .......................................................................... 19 FIGURA 19 FOTOGRAFIA AEREA ....................................................................................... 20 FIGURA 20 PUNTO PRINCIPAL ............................................................................................ 21 FIGURA 21 DISTANCIA FOCAL ........................................................................................... 22 FIGURA 22 DISTORSIONES INFLUENCIADAS POR LA CAMARA ...................................... 23 FIGURA 23 DISTORSION POR DESCENTRAMIENTO .......................................................... 23 FIGURA 24 COORDENADAS IMAGEN .............................................................................. 25 FIGURA 25 ORIENTACION INTERNA .................................................................................. 26 FIGURA 26 ORIENTACION RELATIVA ................................................................................. 27 FIGURA 27 BLOQUE FOTOGRAMETRICO ......................................................................... 28 FIGURA 28 TAMAÑO DEL PIXEL EN EL TERRENO .............................................................. 29 FIGURA 29 GSD Y ALTUTRA DE VUELO .............................................................................. 30 FIGURA 30 PUNTOS DE CONTROL CGP ........................................................................... 30 FIGURA 31 PUNTOS DE CONTROL TERRESTRE .................................................................. 31

ING. EDUARDO GARAY

3

3

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

FIGURA 32 COLOCACION DE PUNTOS DE CONTROL .................................................... 32 FIGURA 33 SOLAPE LONGITUDINAL Y TRANVERSAL ........................................................ 33 FIGURA 34 SOLAPE LONGITUDINAL Y TRANSVERSAL DE UN UAVs ................................ 34 FIGURA 35 PLANIFICAION EN FUNCION DEL REVILIEVE DEL TERRENO ......................... 34 FIGURA 36 DJI GROUND STATION PRO ............................................................................ 35 FIGURA 37 PIX4D CAPTURE ................................................................................................ 36 FIGURA 38 UGCS............................................................................................................... 37 FIGURA 39 MISSION PLANNER ........................................................................................... 38 FIGURA 40 DRONEDEPLOY ................................................................................................ 38 FIGURA 41 PLANEAMIENTO DE VUELO GENERAL ........................................................... 39 FIGURA 42 PLANEAMIENTO DE VUELO EN CIUDADES .................................................... 40 FIGURA 43 PLANEAMIENTO DE VUELOS RECONSTRUCCION DE EDIFICIOS................. 41 FIGURA 44 PLAN DE VUELOS ESTRUCTURA ALTAS ........................................................... 41 FIGURA 45 RAYOS HOMOLOGOS .................................................................................... 45 FIGURA 46 FLUJO DE TRABAJO PROGRAMA AGISOFT METASHAPE ............................ 46 FIGURA 47 PROCESO DEL SOFTWARE PIX4D ................................................................... 47 FIGURA 48 IMAGENES PIRAMIDALES ................................................................................ 48 FIGURA 49 MDT y MDS ....................................................................................................... 49 FIGURA 50 ORTOFOTO ....................................................................................................... 50 FIGURA 51 CLASIFICACION DE LOS RPAS........................................................................ 52 FIGURA 52 HELICOPTERO ................................................................................................... 52 FIGURA 53 RPAS MULTIROTOR ........................................................................................... 53 FIGURA 54 ALA FIJA ............................................................................................................ 54

ING. EDUARDO GARAY

4

4

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

FOTOGRAMETRIA DIGITAL 1

INSTRODUCCION A LA FOTOGRAMETRIA

1.1 DEFINICIÓN. “La fotogrametría es la técnica que estudia y define con precisión la forma, posición y dimensiones de objetos midiendo sobre las fotografías” (Bonneval). El objetivo fundamental de la fotogrametría es obtener información métrica tridimensional partiendo de información bidimensional. Para lograrlo, la fotogrametría busca emular la visión humana. Cada ojo observa el espacio que lo rodea desde una perspectiva diferente, de modo que cuando las imágenes llegan al cerebro, éste reconoce imagenes ligeramente diferentes del mismo objeto en ambas visuales y las fusiona, proporcionándonos la tercera dimensión. En el caso de la fotogrametría, el objeto de estudio es un espacio tridimensional que se fotografía desde distintas posiciones. Aunque en principio pasar de un entorno 3D a otro 2D puede suponer una pérdida de información, al recrear las posiciones de la cámara en la toma fotográfica, reproducimos las condiciones iniciales de modo que podemos recuperar esa información 3D. El objetivo del presente curso es aprender a obtener resultados 3D a partir de fotografías, sin embargo es necesario conocer primero los fundamentos de fotografía y fotogrametría, así como otros aspectos teóricos que se aplicarán de ahora en adelante.

2

CONCEPTOS BASICOS DE IMÁGENES Y CAMARAS

2.1 LA LUZ. La fotografía se define tradicionalmente como la técnica de obtención de imágenes por la acción química de la luz sobre una superficie con unas características determinadas. Cuando hablamos de fotografía digital, el proceso químico se substituye por un sensor electrónico formado por sensores fotosensibles que transforman la luz en una señal eléctrica, que queda almacenada en la memoria. La luz que capta el sensor fotográfico es la que reflejan los objetos, y se conoce como luz visible. La luz visible es un tipo especial de radiación electromagnética y es el rango en el que nuestro Sol estrellas emite la mayor parte de su radiación. Si analizamos el espectro electromagnético, en función de la longitud de onda, nos encontramos desde los rayos Gamma, hasta las ondas de radio. La mayor parte del espectro electromagnético es disipado por la atmósfera, sin embargo, existen lo que se conoce como ventanas atmosféricas que permiten el paso de ciertas longitudes de onda, como la luz visible, las ondas de radio y una parte del infrarrojo y los rayos ultravioleta.

ING. EDUARDO GARAY

5

5

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

FIGURA 1 ESPECTRO ELECTROMAGNETICO

Fuente: https://www.google.com.bo/url?sa=i&url=https%3A%2F%2Fderalaja.wordpress.com

FIGURA 2 RADIACION INFRAROJA

Fuente: https://mgmdenia.files.wordpress.com/2017/12/espectro-luz.png?w=530&h=233

En fotogrametría se utiliza fundamentalmente la luz visible, aunque también se utiliza el infrarrojo para estudios de agricultura de precision y el medio ambiente.

ING. EDUARDO GARAY

6

6

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

2.2 PROCESO DE FORMACIÓN DE LA IMAGEN. Una cámara fotográfica es una caja oscura que deja pasar la luz el tiempo preciso para que la imagen sea registrada por un sensor. La luz que reflejan los objetos entra en la cámara a través del objetivo y es desviada por las lentes que lo forman, concentrándose en el plano focal. El objetivo real de una cámara fotográfica es un elemento muy complejo, formado por un número variable de lentes, sin embargo podemos sintetizar su funcionamiento siguiendo el modelo de lente delgada. Los rayos entran en la cámara en el momento de la toma fotográfica y las lentes del objetivo los enfocan en un punto del plano focal, tal y como se puede apreciar en la imagen. FIGURA 3 PROCESO DE FORMACION DE UNA IMAGEN

Fuente: https://www.google.com.bo/url?sa=i&url=https%3A%2F%2Fall-spares.com%2Fes%2Farticlesand-video%2Fdo-more-megapixels-mean-better-photo-quality.

El enfoque no se puede hacer simultáneamente para todos los rayos de luz que entran en la cámara. Los rayos de luz procedentes de objetos alejados se concentran a mayor distancia de la lente que los de objetos cercanos. Este fenómeno se entiende de manera sencilla mediante un pequeño experimento: Si sujetamos un bolígrafo delante de la pantalla del ordenador de modo que ambos objetos se encuentran a la misma distancia del observador, ambos objetos se verán nítidamente (se enfocan en el mismo punto). Si acercamos el bolígrafo y mantenemos la vista fija en la pantalla, dejaremos de ver el bolígrafo nítido, pero no la pantalla. Del mismo modo, si ahora fijamos la vista en el bolígrafo, la pantalla la veremos borrosa.

ING. EDUARDO GARAY

7

7

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

FIGURA 4 ENFOQUE DE OBJETOS

Fuente: Conceptos fotogrametricos IMASGAL (2015)

En el caso del ojo humano, el enfoque o acomodación consiste en un cambio de la curvatura del cristalino. Una cámara fotográfica funciona de un modo similar. Como la curvatura de las lentes no puede variar, lo que hacen es que una de ellas varía de posición dentro del objetivo. El enfoque también varía en función de la longitud de onda. No todos los colores se enfocan en la misma distancia por eso es necesario que los objetivos estén compuestos por múltiples lentes. FIGURA 5 ENFOQUE DE OBJETOS DE UNA CAMARA

Fuente: Conceptos fotogrametricos IMASGAL (2015)

ING. EDUARDO GARAY

8

8

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

Si modificamos el enfoque de manera que aparezcan enfocados objetos más lejanos, llega un momento en el que todo más allá de una cierta distancia aparece enfocado. Es lo que se conoce como distancia hiperfocal. Esta distancia es la posición de enfoque que proporciona mayor profundidad de campo, o lo que es lo mismo, mayor distancia entre el punto más próximo y el más lejano que se ven nítidos en el mismo enfoque. FIGURA 6 DISTANCIA HIPERFOCAL

Fuente: https://www.dzoom.org.es/wp-content/uploads/2009/10/distancia-hiperfocal-grafico734x432.jpg

La distancia hiperfocal es la distancia mínima de enfoque con la cuál conseguimos una mayor profundidad de campo, obteniendo un enfoque que se extiende desde la mitad de esta distancia, hasta el infinito. La distancia hiperfocal cambiara dependiendo de las condiciones de distancia focal y de apertura del diafragma , ya que la profundidad de campo va a actuar sobre nuestra fotografía. El extremo más lejano de este margen es lo que se conoce como enfoque al infinito y es el enfoque que siempre utilizamos en fotogrametría aérea. Este enfoque permite ver nítidamente objetos que se encuentren a más de 5 metros de la cámara.

ING. EDUARDO GARAY

9

9

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

FIGURA 7 APERTURA DEL DIAFRAGMA

https://lh3.googleusercontent.com/proxy/hFyewlJsoPLRvJcoKZQrXbgcmaFQ4sc5hO4NQRlSBdbUwG

En la siguiente imagen podemos ver de manera muy esquemática en que consiste el enfoque al infinito, en ella observamos como los rayos verdes, procedentes de un punto en el infinito, están enfocados en el plano de la imagen. Sin embargo, si se fotografía al mismo tiempo un objeto más próximo (rayos negros), la imagen que se obtiene de él no es un punto exacto, sino un círculo desenfocado o círculo de confusión. FIGURA 8 CIRCULO DE CONFUSIÓN

Fuente: Conceptos fotogrametricos IMASGAL (2015)

ING. EDUARDO GARAY

10

10

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

Para entender mejor este procedimiento es interesante conocer ciertos términos de fotografía y como afectan los distintos elementos de la cámara a la toma fotográfica. 2.2.1 LA IMAGEN DIGITAL. Hasta ahora hemos hablado de la formación de la imagen de una manera teórica, y sin tener en cuenta el tipo de dispositivo que capta la imagen, pudiendo ser una cámara analógica o digital. Sin embargo, dado que en la actualidad la fotografía analógica ha quedado relegada a temas artísticos, es importante conocer las características de la imagen digital y como se forma esta imagen. La luz que pasa por el objetivo, atraviesa una serie de filtros, y llega hasta el sensor de imagen que está formado por multitud de receptores fotosensibles, llamados "fotodiodos". Esta luz genera una pequeña señal eléctrica en cada receptor, que es transformada en datos digitales, representados como una serie de cadenas de ceros y unos, denominados dígitos binarios. FIGURA 9 FORMACION DE LA IMAGEN DIGITAL

Fuente: https://www.fotonostra.com/digital/fomacionimagen.htm

Esta información binaria se almacena en la imagen digital como una matriz de elementos denominados píxeles (picture x element). Cada elemento de la matriz viene representado por un área. La calidad de una imagen digital dependerá de la finura de este retículo, si el tamaño de píxel es demasiado ancho, se pierde información, pero con píxeles demasiado pequeños entran en juego otros factores como la aparición de ruido en la imagen y pérdida de calidad. Este tamaño de píxel dependerá del tamaño del sensor, que es el dispositivo que capta la imagen.

ING. EDUARDO GARAY

11

11

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

2.3

TÉRMINOS BÁSICOS DE FOTOGRAFÍA Y DE LAS CAMARAS. FIGURA 10 PARTES DE UNA CAMARA DIGITAL

Fuente: https://image.slidesharecdn.com/4-partesdelacamaradslr-150503105901-conversiongate02/95/partes-de-la-camara-dslr-1-638.jpg?cb=1480104393

2.3.1 EL OBTURADOR El obturador es un conjunto de elementos planos superpuestos que a modo de cortina impiden por completo la entrada de la luz en la cámara. El acto de tomar una foto consiste físicamente en abrir el obturador durante un periodo muy breve de tiempo, normalmente una pequeña fracción de segundo (tiempo de exposición), de manera que la luz entra e imprime el negativo o los píxeles del sensor digital. FIGURA 11 EL OBTURADOR

Fuente: https://image.freepik.com/vector-gratis/obturador-camara-negro-aislado-sobre-vectorfondo-blanco_24908-34925.jpg

ING. EDUARDO GARAY

12

12

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

2.3.2 DIAFRAGMA El diafragma es un dispositivo que le provee al objetivo la capacidad de regular la cantidad de luz que entra en la cámara a través de un sistema de aletas ajustable. Las progresivas variaciones de abertura del diafragma se denomina apertura, y se especifican mediante el número f. El número f es la manera de expresar la apertura de diafragma. Lo que determina la cantidad de luz que entra no es exactamente el diámetro de la apertura de diafragma sino su relación con la longitud focal, ya que para un mismo diámetro entra menos luz cuanto mayor sea la longitud focal debido al menor ángulo que abarca la foto. Así pues la cantidad de luz viene dada por el cociente Longitud focal / diámetro de apertura del diafragma El número f es el inverso de este cociente, de manera que a mayor número f menor luz captada. FIGURA 12 DISTINTAS APERTURAS DEL DIAGRAGMA

https://disenofotografia.files.wordpress.com/2013/06/diafragmas.jpg

2.3.3 DISTINTAS APERTURAS DEL DIAFRAGMA Tanto el tiempo de exposición como la apertura del diafragma controlan la cantidad de luz que entra en la cámara. A mayor apertura y mayor tiempo de exposición más luz entra. Por ejemplo, cuando hay poca luz hay que abrir el diafragma y aumentar el tiempo de exposición para el que objeto se fotografíe nítidamente. En el caso contrario, si el objeto está muy iluminado, cerraremos el diafragma y el tiempo de exposición será menor.

ING. EDUARDO GARAY

13

13

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

Las posibles combinaciones entre tiempo de exposición y apertura tienen su importancia en la fotografía artística, como por ejemplo en los retratos en los que el fondo aparece tan desenfocado que no se distingue, realzando el objeto retratado. Este efecto, llamado bokeh, se consigue abriendo mucho el diafragma. FIGURA 13 EFECTO BOKEH

Fuente: Conceptos fotogrametricos IMASGAL (2015)

Sin embargo, en fotogrametría aérea, en la que se trabaja siempre con el enfoque al infinito y todo sale enfocado con independencia de la apertura de diafragma ya que todos los objetos están alejados, es preferible trabajar con aperturas grandes y tiempos de exposición pequeños, para evitar en lo posible que las fotografías salgan movidas. Esto se consigue fácilmente en una cámara digital cuando trabajamos en modo “deporte” o “movimiento”. 2.3.4 CENTRO ÓPTICO DEL OBJETIVO Es el centro del diafragma cuando éste se encuentra abierto. 2.3.5 DISTANCIA FOCAL La focal es la distancia desde el centro óptico al plano en el que se forma la imagen (el plano en el que está el sensor digital).

ING. EDUARDO GARAY

14

14

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

FIGURA 14 DISTANCIA FOCAL

Fuente: https://i.pinimg.com/originals/01/5e/45/015e4539ee74d09a976ea59fc64a8b5c.jpg

El sensor es una matriz de píxeles fija, por tanto cuanto mayor es la focal menor es el ángulo que abarca la fotografía y para una misma distancia al objeto menor el área abarcada. ING. EDUARDO GARAY

15

15

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

2.3.6 SENSIBILIDAD: En las cámaras analógicas hacía referencia a una característica intrínseca de las películas fotográficas. Las películas tenían cristales de bromuro de plata que dependiendo de su tamaño, reaccionaban más o menos a la luz y formaban la imagen. Hoy en día, los sensores digitales también tienen una sensibilidad que básicamente trata de ajustar la cantidad de luz que la cámara debe absorber. Supongamos que es 100 ISO. Si decimos a la cámara que queremos que funcione como 200 ISO el software de la cámara lo que hace es modificar la imagen que recibe haciéndola el doble de clara. Más exactamente, el valor digital (valor de luz incidente) de cada píxel lo multiplicaría por 2. FIGURA 15 SENSIBILIDAD

Fuente: Conceptos fotogrametricos IMASGAL (2015)

La cantidad de luz recibida se suele expresar como un número entre 0 (nada de luz= negro) y 255 (máxima luz = blanco), y se llama nivel de gris. Si aumentamos el número ISO, la cámara lo único que hace es multiplicar el valor obtenido, de modo que lo que sería un nivel de gris de 36 si la cámara está en 80 ISO se convierte en 45 a ISO 100, 90 a ISO 200, 180 a ISO 400 y 255 (el máximo posible) con ISO 800 o más. La sensibilidad también depende del tamaño del sensor, cuanto mayor es su tamaño, el tamaño de los píxeles que lo forman también aumenta, y por lo tanto mayor es la cantidad de luz que entra en cada uno.

ING. EDUARDO GARAY

16

16

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

2.3.7 EL SENSOR. En las películas fotográficas se había estandarizado el tamaño de la fotografía en negativo de 24 x 36 mm. Este no era en absoluto el único. Había cámaras con negativos más pequeños, desde un poco más pequeño que lo normal hasta cámaras diminutas. Todos estos tamaños entran dentro de lo que se llama formatos pequeños. Tamaños de negativo mayor se empleaban solamente por parte de ciertos profesionales para poder obtener ampliaciones con mayor nitidez que a partir de un negativo normal. Son las llamadas cámaras de medio formato. Formatos aún mayores se empleaban y se emplean por los fotógrafos de paisajes profesionales, para obtener impresiones de 1m 2 o mayores con muy alta calidad. Los tamaños de negativos mayores se emplearon en fotogrametría aérea, siendo el estándar en esta técnica el negativo de 23 x 23 cm2. FIGURA 16 FORMATO DE NEGATIVOS

https://2.bp.blogspot.com/BmB9AcAYL_8/WMV81uJq0JI/AAAAAAAABDU/qdXaCNV_bS8GP5GDKXXONQyZrAMbZ6H6ACLcB/s16 00/formatos%2Bde%2Bpel%25C3%25ADculas.jpg

Actualmente las camaras digitales usan sensores, El tamaño de 24 x 36 mm2 recibe el nombre de “35 milímetros” porque ese es el alto de la película fotográfica completa. En fotografía digital se sustituye el negativo por un sensor, que no es más que una matriz rectangular de píxeles. Estos sensores suelen ser más pequeños que los negativos de 35 milímetros, lo que ha generalizado referirse al formato de 24 x 36 mm2 como marco completo (por comparación a los sensores digitales, que son más pequeños), o por su nombre en inglés: full-frame.

ING. EDUARDO GARAY

17

17

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

En la siguiente imagen se muestran varios tamaños de sensor de distintas cámaras digitales comparándolos con el full-frame, tamaño de sensor que también incorporan algunas cámaras de gama alta. FIGURA 17 TAMAÑOS DE SENSORES

https://www.espacioprofundo.com.ar/astrofotografia.html/astrofotografia/introducci%C3%B3npreconceptos-sensores-y-resoluci%C3%B3n/sobre-tama%C3%B1os-de-sensores-de-pixeles-yresoluci%C3%B3n-r22/

Como se mencionó anteriormente, para los mismos megapíxeles, cuanto mayor es el sensor mayores son físicamente los píxeles y mayor es la cantidad de luz que entra en cada uno. Esto se traduce en que la electrónica aporta menos ruido en relación ING. EDUARDO GARAY

18

18

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

a la luz que incide en el píxel y se obtienen imágenes de mejor calidad. En este argumento hay una pequeña trampa: la luz que entra en la cámara es la que entra en el objetivo, de modo que si se va a repartir entre 18 millones de píxeles, por ejemplo, a cada píxel le toca una cierta cantidad de luz que no depende de si el sensor es más grande o más pequeño. Sin embargo sigue siendo cierto que el ruido de la electrónica es mayor cuanto más pequeños son los píxeles, y que si el sensor es más grande normalmente también la óptica será más grande y la cámara capta más luz. 2.3.8 PÍXELES REALES Y PÍXELES EFECTIVOS. Los datos que captura el sensor no se almacenan tal cual, sino que se someten a un cierto tratamiento, tanto radiométrico como geométrico. Este último consiste en una corrección de la distorsión, que aunque no es perfecta mejora mucho la imagen. La distorsión residual que sigue existiendo tras esta corrección es la que se calibra cuando se calibra la cámara para su uso en fotogrametría; se explica en la sección siguiente. Puede comprobarse esto tomando una cámara y capturando dos fotografías del mismo objeto; una almacenada en el modo normal JPG y otra configurando la cámara para que almacene los datos brutos del sensor (formato RAW). Podrá verse que en esta última las líneas que tenían que ser rectas aparecen curvas, especialmente cerca de los bordes de la cámara. FIGURA 18 PIXELES REALES Y EFECTIVOS

Fuente: Conceptos fotogrametricos IMASGAL (2015

Debido a esta corrección geométrica algunos de los píxeles originales (de antes de la corrección) se salen fuera del rectángulo de la foto tras aplicarles la corrección y son desechados. Por ello el número de píxeles de una imagen es ligeramente menor que los que realmente tiene el sensor. Uno y otro son respectivamente los píxeles efectivos y los píxeles totales. Los únicos que interesan son los píxeles efectivos. Son las dimensiones de la imagen almacenada; los que se muestran al ver las propiedades del fichero o simplemente deteniendo el cursor encima del icono de la imagen. La única excepción a esto es ING. EDUARDO GARAY

19

19

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

para el cálculo aproximado del tamaño del píxel, para lo que se divide el número de píxeles reales de una fila entre el ancho del sensor.

3

CONCEPTOS BASICOS DE FOTOGRAMETRIA.

Los términos fotográficos anteriormente definidos, nos dan una idea de lo importante que es conocer las características de nuestra cámara para elaborar un buen trabajo. Además de los términos fotográficos también debemos conocer los parámetros fotogramétricos fundamentales. Hasta este momento lo único que tenemos son fotografías, que como tales, son una representación en perspectiva de la realidad en proyeccion central, como se puede apreciar en la siguiente imagen. FIGURA 19 FOTOGRAFIA AEREA

https://previews.123rf.com/images/omegas/omegas1702/omegas170200115/73577009-vistaa%C3%A9rea-de-la-ciudad-con-carreteras-casas-y-edificios-.jpg

Mediante la fotogrametría, buscamos conocer que distorsiones afectan a las imágenes, para así poder compensar esas deformaciones y obtener un resultado ING. EDUARDO GARAY

20

20

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

en el cual podamos realizar mediciones precisas. Por eso a continuación pasaremos a definir los términos básicos, antes de profundizar en el proceso fotogramétrico. 3.1 PUNTO PRINCIPAL. El punto principal es la proyeccion ortogonal del eje optico de la camara sobre el plano el plano del negativo o plano del sensor. No coincide exactamente con el centro del rectángulo del sensor porque es imposible alinear el eje central del objetivo (eje óptico) con el centro del sensor. Es muy importante conocer la posición de este punto ya que es el lugar geométrico donde la distorsión es nula, lo que esté representado en ese punto no sufrirá distorsiones. FIGURA 20 PUNTO PRINCIPAL

https://encrypted-tbn0.gstatic.com/images?q=tbn%3AANd9GcQQZlI_u0v2pnkfGJN5irxjxIeliPl8J8Vvg&usqp=CAU

Una vez que hemos definido el punto principal como el punto donde la distorsión es menor, conozcamos que son las distorsiones, como afectan a las imágenes y como se corrigen.

ING. EDUARDO GARAY

21

21

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

3.2 DISTANCIA FOCAL f 1 Tambien denomiada distancia principal, es la distancia que existe entre el centro optico del objetivo y el plano focal o plano del sensor. FIGURA 21 DISTANCIA FOCAL

Fuente: https://www.dzoom.org.es/la-distancia-focal-todo-lo-que-necesitas-saber-explicado-conejemplos/

3.3 DEFORMACIONES DE LA IMAGEN. Entendemos como deformación al conjunto de efectos que alteran la posición de los puntos imagen respecto a los que le son asignados por las leyes de la perspectiva. Esta alteración de la posición causará errores en la reconstrucción de los haces, por lo que es interesante estudiar las causas, conocer su magnitud y en su caso, aprender a eliminarlos. Tradicionalmente estas deformaciones se clasifican en función de su origen en: 3.3.1 FACTORES FÍSICOS Como la curvatura terrestre y la refracción atmosférica. Estos factores afectan solo en vuelos fotogramétricos convencionales, donde la altura de vuelo supera los 1000 metros. 3.3.2 FACTORES INFLUENCIADOS POR LA CÁMARA: Debidos a la óptica y a la mecánica de la cámara. Estos factores son los que más afectan a la cámara en los proyectos terrestres y en vuelos con RPAs. La imagen de un punto objeto no es un punto sino un círculo, incluso en el plano de enfoque óptimo. Las imperfecciones de la imagen debidas a la óptica se denominan aberraciones y se clasifican en aberración esférica, coma, astigmatismo, curvatura de campo y distorsión. Mientras que las primeras aberraciones tienen que ver con la calidad de la imagen y solo se tienen en cuenta si impiden la identificación correcta de puntos de interés, la distorsión está relacionada con la posición de la imagen en el plano imagen. 1

http://ing.unne.edu.ar/dep/goeciencias/fotointer/pub/teoria2011/parte01/fotom.pdf ING. EDUARDO GARAY

22

22

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

La distorsión es el desplazamiento del punto imagen con respecto a su posición ideal. En un sistema óptico este desplazamiento siempre es radial y origina que las líneas rectas se vean curvas. Esto es debido a que los rayos pierden su alineación al atravesar las distintas lentes. FIGURA 22 DISTORSIONES INFLUENCIADAS POR LA CAMARA

Fuente: Conceptos fotogrametricos IMASGAL (2015)

Por otra parte, es imposible montar el juego de lentes que forma el objetivo de modo que todos los centros estén alineados. Este error de centrado induce otro tipo de distorsión denominada distorsión por descentramiento con una componente radial y otra tangencial. Esta distorsión es la causante de que los puntos se desplacen de modo radial respecto a su posición real. A medida que nos alejamos del punto principal, aumenta la distorsión. FIGURA 23 DISTORSION POR DESCENTRAMIENTO

Fuente: Conceptos fotogrametricos IMASGAL (2015)

ING. EDUARDO GARAY

23

23

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

Así como las aberraciones esféricas, de coma y astigmatismo se pueden corregir por medio de filtros, las distorsiones no se pueden eliminar. Por eso es necesario calibrar las cámaras, para poner en evidencia el valor de estas distorsiones. 3.4 CALIBRACIÓN DE LA CÁMARA. La calibración es un procedimiento por el cual se obtiene el valor de la distancia focal calibrada, los parámetros de distorsión radial y distorsión por descentramiento y las coordenadas del punto principal. El conjunto de estos valores es lo que se conoce como ORIENTACIÓN INTERNA de la cámara. Habitualmente, la calibración se realiza fotografiando un patrón con forma de matriz de puntos. Estos puntos están situados a una distancia relativa entre ellos conocida. Si fotografiamos la plantilla y analizamos la distancia a la que aparecen representados los puntos dentro de la imagen, podemos calcular la diferencia entre la posición real con respecto a la ideal. De este modo conoceremos su distorsión. Con el software actual de fotogrametria (Agisoft, Pix4D) este proceso es automático y se calcula automáticamente a partir de la medida de puntos comunes en varias imágenes. Si un mismo punto aparece representado en varias imágenes y unimos en cada una de ellas ese punto con el centro óptico correspondiente, prolongando esos rayos se cortarán teóricamente en un mismo punto en el espacio. Analizando los resultados teóricos con los reales obtenemos los valores de las distorsiones. El calibrado de la cámara ha de repetirse periódicamente para garantizar la estabilidad del objetivo. No es necesario repetirlo en cada proyecto pero si conviene no olvidarse de ella. 3.5 COORDENADAS IMAGEN. Las coordenadas imagen indican la posición de un punto dentro de la foto, en unidades píxel, tomando como origen de coordenadas el vértice superior izquierdo de la imagen. Para poder trabajar con estas coordenadas, primero han de ser depuradas y eliminar las distorsiones.

ING. EDUARDO GARAY

24

24

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

FIGURA 24 COORDENADAS IMAGEN

Fuente: Conceptos fotogrametricos IMASGAL (2015)

3.6 ORIENTACIÓN INTERNA. La orientación interna es el proceso fotogramétrico que nos permite reconstruir el haz de rayos de una imagen. Para ello es necesario conocer los siguientes datos: 1. La distancia focal calibrada. 2. La posición del punto principal. 3. La función de distorsión. Como hemos visto anteriormente, estos parámetros se calculan mediante el proceso de calibración de cámara. Una vez reconstruido el haz de rayos, se determinará el sistema de coordenadas imagen y se establecerán los parámetros de transformación entre el sistema de coordenadas imagen 2D y el 3D. Con la orientación interna se calculan los parámetros de transformación para pasar las coordenadas imagen a un sistema tridimensional con origen en el centro de proyección de la cámara (centro óptico). Tenemos por lo tanto dos sistemas de coordenadas: el sistema imagen, tridimensional, y el sistema píxel, bidimensional. Para poder realizar la transformación 2D a 3D, es necesario conocer los parámetros internos de la cámara, como son la distancia focal, la posición del punto principal y la función de distorsión.

ING. EDUARDO GARAY

25

25

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

FIGURA 25 ORIENTACION INTERNA

Fuente: Conceptos fotogrametricos IMASGAL (2015)

Hoy en día los programas de fotogrametría calculan estos parámetros directamente de las fotografias, y los manejan de modo totalmente transparente para el usuario, que no tiene que preocuparse de hacer cálculos ni entender las fórmulas para el paso de coordenadas brutas a coordenadas refinadas. Muchos operadores no son siquiera conscientes de que el programa realiza ese paso. Con Pix4D y Metashape, esta fase se realiza de manera automática. El software detecta automáticamente las características de la cámara gracias a la información que proporciona el fichero EXIF de la cámara. Podemos consultar esa información en la opción propiedades de la imagen. En esa información aparece la distancia focal y el tamaño del sensor proporcionados por el fabricante. Gracias a esa información puede recrear el haz proyectivo en cada una de las imágenes que forman el proyecto. Al mismo tiempo, detecta puntos característicos en cada una de las imágenes y busca en que fotos aparecen cada uno de ellos, es lo que se conoce con el término matching o correlado. Cuantas más fotos contengan puntos iguales en común, puntos homólogos, mayor será la precisión en la determinación de los parámetros de orientación interna. 3.7 ORIENTACIÓN EXTERNA. La orientación externa esta dada por la posición de la cámara en el momento de la toma de cada una de las imagenes. La posición de la cámara viene definida por sus coordenadas X, Y, Z y los giros ω, φ, κ. Orientar el vuelo es el proceso de obtención de estos parámetros, y se dice que el vuelo está orientado cuando se conocen. Muchos drones llevan acoplado un GPS y giróscopio que le permite registrar la orientación de cada imagen en el momento de la toma. La orientacion interna se divide en orientacion relativa y orientacion absoluta. 3.7.1 ORIENTACIÓN RELATIVA. Los sistemas automáticos utilizan técnicas de matching para localizar e identificar zonas de alta varianza y a partir de ahí seleccionar puntos de interés. Después, cada punto de interés se correla con los candidatos a punto homólogo en todas las fotos que tienen un recubrimiento común. Se utiliza la estructura de imágenes ING. EDUARDO GARAY

26

26

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

piramidales para extraer estos puntos ya que se ha comprobado que en las proximidades de un punto de interés aparecen más puntos al subir un nivel por lo que se va incrementando el número de puntos. De este modo, de la nube de puntos inicial formada por unos cientos, pasamos a una nube densa formada por miles de puntos. Cuanto mayor sea el recubrimiento, los puntos aparecerán en más fotografía y el ajuste será mejor. Como se aprecia en la imagen, cuando un punto de interés aparece en una sola foto, la intersección de los rayos nos da la posición del punto. Sin embargo, dado que un píxel es un área en lugar de un punto, no podemos determinar con precisión en donde se cruzan ambos rayos. Sin embargo, si el punto aparece en una tercera fotografía, la elipse de error es menor. FIGURA 26 ORIENTACION RELATIVA

Fuente: Conceptos fotogrametricos IMASGAL (2015)

Una vez que los puntos homólogos se han localizado en todas las fotografías en las que aparecen, la intersección de rayos homólogos nos proporciona una nube de puntos 3D en el espacio. De momento, como no se han introducido puntos de apoyo en coordenadas terreno, trabajamos en un sistema de coordenadas píxel, o espacio modelo. 3.7.2 ORIENTACIÓN ABSOLUTA. Después de establecer la orientación relativa, solo queda relacionar el espacio modelo con el espacio objeto. Para lograr este último paso es necesario incorporar al proyecto los puntos de apoyo medidos en campo y marcarlos en cada una de las fotografías en las que aparecen. Los puntos de apoyo proporcionan la escala y la orientación correcta a todo nuestro trabajo, son como las chinchetas que unen el modelo 3D que hemos generado previamente a sus coordenadas reales.

ING. EDUARDO GARAY

27

27

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

3.8 BLOQUE FOTOGRAMÉTRICO La figura 25, muestra dos fotos consecutivas de un vuelo es lo que comunmente se senomina par estereoscopico. Hay una zona muy grande que aparece en las dos imagenes que se llama zona de solape o traslape y se explesa en %. IMAGEN 1 ZONA DE SOLAPE

Fuente: Conceptos fotogrametricos IMASGAL (2015)

Existen 2 tipos de solapes el solape longitudinal que se produce en la direccion del vuelo y el solape transversal que se produce entre las lineas de vuelo, el solape longitudinal debe se siempre mayor del 50% mientras que el solape transversal mayor al 30%, en la practica utilizando drones se alcanza valores mayores de solape. Cada imagen se solapa no solamente con la siguiente sino también, en una pequeña zona, con la siguiente a la siguiente. Un bloque fotogrametrico, es una sucesión de lineas de vuelo, normalmente paralelas, diseñaldas de forma que las imagenes en el momento de la toma tengan un solape longitudinal y tranversal preestablecidos a una determianda altura de vuelo. FIGURA 27 BLOQUE FOTOGRAMETRICO

Fuente: Conceptos fotogrametricos IMASGAL (2015)

ING. EDUARDO GARAY

28

28

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

En la figura 25 se puede observer un vuelo formado por 8 lineas de vuelo paralelas. En rojo oscuro se marca el límite de la zona a volar. Los vuelos se planifican con un cierto margen, de modo que en las pasadas normalmente sobra una foto al principio y al final apara asegurarse una coverture adecuada y mayor presicion dentro de la zona a levanter. 3.9 TAMAÑO DEL PIXEL EN EL TERRENO GSD El tamaño de píxel (en el terreno) se denomina GSD y se suele indicar en cm y es lo que mide cada píxel de la foto aproximadamente. Si hacemos zoom en una foto llegará un momento en el que veremos los cuadrados de los píxeles. Lo que abarque cada uno de esos cuadrados sobre el terreno es lo que se llama tamaño de píxel. Se denota por GSD (ground sample distance = distancia terreno de muestreo). Una imagen de satélite puede tener un tamaño de píxel mas grande por que esta tomada a mayor distanca. Para vuelos con RPAs el tamaño de píxel varía entre 2 cm y 10 cm.

FIGURA 28 TAMAÑO DEL PIXEL EN EL TERRENO

Fuente: https://www.asdronspain.com/wp-content/uploads/GSD-1.jpg

Para una camara con distancia focal fija, cuanto más alto se vuele mayor será el tamaño de píxel. Para una misma altura de vuelo un focal más larga da lugar a un tamaño de píxel menor, ya que la misma cantidad de megapíxeles abarca una menor área fotografiada. Recíprocamente, para obtener un cierto tamaño de píxel, cuanto más larga sea la focal más alto será necesario volar.

ING. EDUARDO GARAY

29

29

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

FIGURA 29 GSD Y ALTUTRA DE VUELO

Fuente: http://blog.fundacionlaboral.org/tag/drones-en-construccion/

3.10 PUNTO DE CONTROL TERRESTRE GCP Un punto de control terrestre GCP (grund control point) es un punto que se ve en varias imagenes y cuyas coordendas han sido levantadas previamente en campo por lo tando se conocen con un grado aceptabla de presion igual a menor al GSD. Los puntos de control terrestre GCP, se emplean para dar escala y orientación al trabajo; más exactamente, para que el cálculo de la orientación se realice en el sistema de coordenadas de los puntos de apoyo y no en un sistema arbitrario, cuya escala y dirección de los ejes muy baja presicion ya que el GPS que llevan a bordo los UAV son navegadores. FIGURA 30 PUNTOS DE CONTROL CGP

| Fuente: https://workingwithdrones.com/groundcontrol/

ING. EDUARDO GARAY

30

30

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

En el software de fotogrametria, es necesario identificar los puntos de control para orientar correctamente el modelo. 3.10.1 FUNCIÓN DE LOS PUNTOS DE CONTROL TERRESTRE GCP Si no existen puntos de control terrestre GCP el cálculo de la aerotriangulación se puede llevar a cabo igualmente, en un sistema de coordenadas arbitrario, con escala arbitraria y orientación arbitraria. Como resultado de la aerotriangulación se obtendrán las coordenadas y giros de las fotografías y las coordenadas de los puntos medidos, todo en un sistema local propio del vuelo. Visto de esta manera los GCPs sirven para llevar todo a un sistema de coordenadas útil: el sistema en el que estén los puntos de apoyo. Esto se haría mediante una transformación de semejanza tridimensional (traslación, rotación y escalado). Para ello sería suficiente con dos puntos de apoyo y la coordenada Z de un tercero. Pero un apoyo mínimo para poder llevar todo al sistema de coordenadas del mismo no es suficiente. Si hay mucha distancia de un punto de apoyo a otro, el bloque puede deformarse en la zona intermedia. Es algo análogo a lo que sucede en una poligonal topográfica. Si es demasiado larga los puntos intermedios pueden tener mucho error. Hay que entender el conjunto de puntos y fotografías como una red en la que los puntos fijos de coordenadas conocidas son los puntos de apoyo. Estos por tanto han de existir en modo suficiente y estar adecuadamente distribuidos para garantizar la adecuada precisión de todo el conjunto. FIGURA 31 PUNTOS DE CONTROL TERRESTRE

Fuente: Conceptos fotogrametricos IMASGAL (2015)

ING. EDUARDO GARAY

31

31

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

3.10.2 COLOCACIÓN DE LOS PUNTOS DE APOYO EN TRABAJOS AÉREOS.2 El criterio en el número y localización de los puntos de control depende de múltiples aspectos, como la superficie a mapear o la morfología del territorio. De manera general deberemos considerar los siguienes aspectos: a) Los puntos de control terrestre GCP, han de situarse, en primer lugar, por el borde de la zona a volar. Pueden ser necesarios puntos en el interior de la zona a levanter es grande. b) Incluir, como mínimo, tres puntos de control para fijar el modelo en sus tres dimensiones X, Y, Z. A partir de ese número de puntos, cualquier dato adicional ayudará a precisar la localización y posicionar la totalidad del mosaico. c) Distribuir los puntos de manera irregular, sin concentrarlos, por todo el territorio para evitar sesgar la precisión en unas zonas frente a otras. d) Evitar distribuir los puntos de control sobre ejes lineales en cualquiera de las tres componentes X, Y, Z. Cuanto más irregular sea la distribución en planta y en altura, mayor diversidad de coordenadas planimétricas y altimétricas tendremos. e) Evitar posicionar los los puntos en lugares con sombras o poca visualización de nitidez tras el vuelo. f) Evitar distribuir los puntos en potenciales zonas de bajo solapamiento de imágenes. Por ejemplo, en zonas de borde de mapeo. g) Evitar distribuir los puntos en superficies que no sean fácilmente modelizables y causen distorsión en la alineación, por ejemplo, en zonas cercanas a vegetación frondosa, paja, basura. En general, cualquier entorno con concentración de objetos finos, pequeños e irregulares. h) Evitar distribuir los puntos en lugares ciegos durante algunas pasadas del dron. Cuanto más expuestos, mejor. FIGURA 32 COLOCACION DE PUNTOS DE CONTROL

Fuente: http://www.gisandbeers.com/puntos-de-control-drones-plantillas-dianas/ 2

http://www.gisandbeers.com/puntos-de-control-drones-plantillas-dianas/ ING. EDUARDO GARAY

32

32

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

3.11 SOLAPES. En un levatamiento fogrametrico, las tomas fotográficas se organizan en pasadas paralelas denominadas líneas de vuelo. Dentro de cada pasada cada imgen tiene una parte común, solapa, con la anterior y con la siguiente en el sentido de la línea de vuelo a la que denominamos solape longitudinal. A su vez, tabien se tiene un solape dirección perpendicular a la línea de vuelo a la cual denominamos solape solape transversal. FIGURA 33 SOLAPE LONGITUDINAL Y TRANVERSAL

Fuente: Conceptos fotogrametricos IMASGAL (2015)

El solape longitudinal determina la superficie en la que se formarán los modelos estereoscópicos. Tradicionalmente en fotogrametría aérea, este solape tenía un valor de entre el 60 y el 65% para que los errores en la medida del píxel estuviesen comprendidos entre el 2 y 3 veces el valor del píxel. Sin embargo, en fotogrametría con UAVs, el procesado automático de los puntos necesita que el solape sea mucho mayor, en torno al 80%. El solape transversal hace falta para poder unir las pasadas, ya que son necesarios puntos comunes en las fotografías de una y otra pasada para el cálculo de la orientación. Valores en torno a 20-25% eran adecuados en los trabajos de orientación manual, pero en la automática estos valores se incrementan hasta el 60 – 65%.

ING. EDUARDO GARAY

33

33

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

FIGURA 34 SOLAPE LONGITUDINAL Y TRANSVERSAL DE UN UAVs

Fuente: guía para hacer mapas con drones dronity.com

Si el terreno es muy accidentado y se quiere mantener un solape mínimo entre pasadas, y las fotos de cada pasada están todas a la misma altura (lo habitual), para mantener el en las zonas altas del terreno sucederá que en las en las zonas bajas el solape transversal será bastante mayor por lo que es conveniente planificar el vuelo en función de la pendiente del terreno, la como se puede ver en la siguiente imagen. FIGURA 35 PLANIFICAION EN FUNCION DEL REVILIEVE DEL TERRENO

Fuente: Ing. Boris Fernandes Astro (2020)

ING. EDUARDO GARAY

34

34

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

4

PLANIFICACION DEL VUELO VUELO

El primer paso de todo trabajo fotogramétrico es la planificación del vuelo, la planificación de vuelo, determinará el tamaño del pixel en el terreno GSD, la altura de vuelo, los traslapes longitudinales y transversales y el número de fotografías que necesitaremos. Este paso es el más importante de todo el proceso, ya que una mala planificación puede provocar grades errores y tener que tener que repetir todo el trabajo desde cero. El principio fundamental de una planificacion de vuelo es asegurar la obtención de Imagenes digitales, de máxima calidad y precisión adecuada al proyecto establecido, cuya finalidad es su utilización como base para la producción de documentos cartográficos, mediante procesos fotogramétricos. En la planificación de vuelo de UAVs o RPAS el software o App que gestiona el vuelo del dron calcula automáticamente a partir de parámetros pre configurados la cantidad de fotografías y tiempo de vuelo. El usuario solo se limita a definir algunos parámetros de vuelo como GSD a obtener, sobreposición de fotografías y tipo de vuelo ya sea simple, grilla, circular, horizontal, etc. 4.1 APLICACIONES PARA LA PLANIFICACION DE VUELO Las 5 aplicaciones más populares utilizadas para la planificacon de vuelos son las siguientes: 4.1.1 DJI GROUND STATION PRO3 Recientemente la firma DJI ha sacada su propia aplicación orientada a la planificación y el vuelo autónomo de las aeronaves de la firma. Es compatible con los modelos más actuales de la marca (phantom, inspire, mavic, matrice…). Es una aplicación muy recomendable si posees un drone de la marca ya que todo el desarrollo está pensado íntegramente para los drones de la marca. El único inconveniente de esta aplicación es que, de momento, solamente está disponible para iPad. FIGURA 36 DJI GROUND STATION PRO

Fuente: dji.com 3

https://www.aerial-insights.co/blog/6-aplicaciones-para-planificar-el-vuelo-de-tu-dron/

ING. EDUARDO GARAY

35

35

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

Se puede definir una trayectoria de vuelo a partir de indicaciones como la velocidad y altura del aparato, solape entre imágenes y el área que es necesario cubrir. Con esto tendríamos la seguridad de poder generar ortofotos de calidad. Para reconstrucciones en 3D de alta calidad de objetos únicos, el panorama es ligeramente menos prometedor porque, de momento, no es posible definir vuelos circulares a diferentes alturas. Esperamos ver este problema solucionado en el futuro cercano. 4.1.2 PIX4D CAPTURE Es una de las aplicaciones más conocidas para la planificación de vuelo. Se trata de una aplicación móvil disponible tanto para Android como para iOS. Es compatible con la mayoría de drones profesionales más comercializados (phantom, inspire, mavic, bebop 2, 3dr solo…). Viniendo de parte de Pix4D, podéis esperar una integración perfecta con los diferentes sistemas de software del fabricante. FIGURA 37 PIX4D CAPTURE

Fuente: pix4d.com

El funcionamiento de esta aplicación es realmente sencillo. Una vez que tengamos clara la zona que queremos mapear, abrimos la aplicación y seleccionamos el área a sobrevolar. Como en otras apps, es muy sencillo configurar aspectos relativos a nuestro vuelo: velocidad, ángulo de inclinación de la cámara o el porcentaje de solape entre imágenes. Una vez definido y calculadas las rutas, la aplicación se comunicará con nuestro dron y éste empezará el vuelo de forma autónoma. Esta app permite definir vuelos en forma de cuadrícula, doble cuadrícula (solapando dos cuadrículas perpendiculares), vuelos circulares, incluso unir varios de los anteriores dentro de un único vuelo. 4.1.3 UGCS4 La principal ventaja de esta aplicación es que es compatible con multitud de drones y de controladoras. Es una aplicación de escritorio compatible con 4

https://www.aerial-insights.co/blog/6-aplicaciones-para-planificar-el-vuelo-de-tu-dron/ ING. EDUARDO GARAY

36

36

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

Windows, MacOS y Linux. A diferencia de las aplicaciones móviles, con este software tendremos que planificar las misiones desde nuestro ordenador. Podéis pensar que este software es el equivalente a una navaja suiza: infinitas opciones aunque muchas de ellas serán útiles solo para quien tenga conocimientos avanzados. No es una aplicación tan sencilla, pero el potencial de esta herramienta es ilimitado. La cantidad de configuraciones y herramientas que presenta esta aplicación es enorme. FIGURA 38 UGCS

Fuente: ugcs.com

Soporta misiones con varios vuelos y múltiples cambios de batería, telemetría, control del drone mediante teclado y joystick, control de múltiples drones simultáneamente, dispositivos de fabricantes menos conocidos, etc. Además, es el único software que permite importar perfiles de terreno de forma que sean tenidos en cuenta en la planificación de la misión. 4.1.4 MISSION PLANNER5 Es una aplicación muy completa, muy similar a la anteriormente comentada UGCS, con la que podremos configurar infinidad de parámetros de nuestro drone y de nuestra controladora. Está disponible para Windows pero también existe una versión multiplataforma llamada APM Planner. Con este software tendremos que planificar nuestro vuelo desde el PC y posteriormente pasar la misión a nuestro drone. Una función muy útil de este software es la toma de fotografías de reconstrucciones en 3d, es la del vuelo autónomo en círculo. Simplemente tendremos que seleccionar el radio de nuestro círculo y el número de waypoints y el drone volará de forma autónoma. Esta aplicación es específica del controlador de vuelo ardupilot, aunque hay varias empresas que dan soporte para otros dispositivos. Un elemento interesante es que permite ajustar y cambiar los parámetros de la controladora para diferentes configuraciones físicas de drones (alas fijas, 5

https://www.aerial-insights.co/blog/6-aplicaciones-para-planificar-el-vuelo-de-tu-dron/ ING. EDUARDO GARAY

37

37

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

cuatrimotores, hexarotores, octocopteros… y diferentes formas de estructura). La principal razón para utilizar mission planner es poder cambiar los parámetros de la controladora de vuelo. Si este no es tu caso, es probable que los otros apps analizadas sean más adecuadas. FIGURA 39 MISSION PLANNER

Fuente: ardupil ot.org

4.1.5 DRONEDEPLOY Este planificador de vuelo se caracteriza por ser muy intuitivo y sencillo de utilizar. La aplicación está disponible tanto para dispositivos Android como iOS y es compatible con la mayoría de los drones de la firma DJI. FIGURA 40 DRONEDEPLOY

Fuente: dronedepl oy.com

ING. EDUARDO GARAY

38

38

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

La planificación del vuelo del drone es realmente sencilla y muy similar a la aplicación de Pix4d. Primero seleccionaremos el área que queremos sobrevolar y seguidamente debemos de elegir los diferentes parámetros como la altura o el frontlap/sidelap. Seguidamente la aplicación hará un checklist de que todo esté correcto y el drone comenzará el vuelo de forma autónoma. Una funcionalidad interesante es que es posible añadir un vuelo circular al final de la misión. Las fotografías generadas en este último pase serán muy útiles a la hora de conseguir mejores reconstrucciones en 3D. Aún así, las opciones para orbitar alrededor de objetos son, de momento, limitadas. 4.2 CASOS MAS HABITUALES DE PLANFICACION DEL VUELO Los casos más habituales de planificacion de un vuelo fotogrametrico son los siguientes: 1. VUELO GENERAL: que no incluye bosques, nieve, lagos, campos agrícolas difíciles de reconstruir. En estos casos se recomienda una planificación en forma de malla donde las fotos tengan un solape longitudinal de al menos un 75% y uno transversal del 60%. Se recomienda mantener una altura constante para asegurar el GSD deseado. FIGURA 41 PLANEAMIENTO DE VUELO GENERAL

Fuente: Conceptos fotogrametricos IMASGAL (2015)

2. BOSQUE Y VEGETACIÓN DENSA: a menudo estos elementos tienen un aspecto muy diferente entre las imágenes superpuestas debido a su complejidad o al movimiento por el viento, por lo tanto es difícil extraer puntos característicos comunes entre imágenes. En estos casos la ING. EDUARDO GARAY

39

39

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

planificación de malla anterior se mantendría aunque variaríamos el solape aumentándolo al 85% longitudinal y 75% transversal. También aumentaríamos la altura de vuelo ya que a mayor altura la distorsión de la perspectiva es menor. 3. TERRENO PLANO CON CAMPOS AGRÍCOLAS: en estos casos en que el terreno es muy homogéneo, es difícil extraer puntos comunes entre imágenes. Para lograr unos buenos resultados se recomienda utilizar el plan de adquisición del plan general, aplicándole los siguientes cambios: Aumentar la superposición (85% - 70%), volar más bajo, para aumentar la resolución (GSD más pequeño) y aumentar el número de puntos de apoyo, para lograr una mejor geolocalización de las imágenes. 4. RECONSTRUCCIÓN DE CIUDADES: se requiere un plan de adquisición de imágenes de cuadrícula doble, de modo que todas las fachadas sean visibles. Los solapes serán los mismos que en el caso general pero la cámara no ha de apuntar al nadir sino que tendrá un ángulo entre 10 y 35⁰. FIGURA 42 PLANEAMIENTO DE VUELO EN CIUDADES

Fuente: Conceptos fotogrametricos IMASGAL (2015)

5. RECONSTRUCCIÓN 3D DE EDIFICIOS CON RPA: requiere un plan de adquisición de imágenes específico, dividido en 2 fases. Se realiza un primer vuelo alrededor de la construcción con la cámara a 45⁰, y un segundo vuelo aumentando la altura y con la cámara a 30⁰. En cuanto al número de fotografías, se recomienda tomar una imagen cada 5 – 10 grados para asegurar suficiente solape, tal como se muestra en la imagen. Es posible

ING. EDUARDO GARAY

40

40

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

combinar vuelos oblicuos y verticales o cualquier imagen terrestre para definir mejor la construcción. FIGURA 43 PLANEAMIENTO DE VUELOS RECONSTRUCCION DE EDIFICIOS

Fuente: Conceptos fotogrametricos IMASGAL (2015)

Si la construcción es alta, como por ejemplo torretas eléctricas o turbinas eólicas, se suele volar cerca de la estructura, girando alrededor de ella a varias alturas con la cámara a 45⁰. Al apuntar al suelo, el contenido es más fácil de empareja y los resultados son mejores. FIGURA 44 PLAN DE VUELOS ESTRUCTURA ALTAS

Fuente: Conceptos fotogrametricos IMASGAL (2015)

ING. EDUARDO GARAY

41

41

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

6. MAPEO LINEAL: en obras lineales como ferrocarriles o carreteras se requieren al menos 2 líneas de vuelo, con un solape longitudinal de al menos el 85% y 60% transversal. Si no es posible realizar dos líneas de vuelo, se aumentará el solape longitudinal y los puntos de apoyo. 7. CASOS ESPECIALES: existen terrenos difíciles de modelar mediante fotogrametría. La nieve y la arena tienen poco contenido visual debido a que son grandes áreas homogéneas´, aun así trabajando con un solape muy alto y ajustando la exposición para aumentar el contraste, es posible obtener resultados. 8. AGUA: La superficie del agua es imposible de modelar a causa de la reflexión y las olas que impiden la coincidencia de puntos. Para poder reconstruir ríos o lagos, es necesario captar en cada imagen superficie de tierra. 4.3 PARAMETROS. Los parámetros mas importantes que se deben conocer para el plan de vuelo son los siguientes: A. B. C. D. E. F.

Escala cartográfica final. Elección de la cámara (si es posible). Estudio de la zona: dirección de las pasadas, orografía. Elección de los recubrimientos. Condiciones climáticas y horas de tomas fotográficas. Relieve del terreno.

A. ELECCIÓN DE LA ESCALA CARTOGRÁFICA FINAL La escala cartográfica a la que vamos a presentar nuestro trabajo va a determinar el tamaño máximo de píxel. Esto se calcula teniendo en cuenta la tolerancia de error. Esta tolerancia, o error máximo admisible, se calcula multiplicando el valor límite de percepción visual (0.2 mm) por el denominador de la escala, de modo que si la escala cartográfica es 1:500, el tamaño de píxel máximo será de 10 cm. B. ELECCIÓN DE LA CÁMARA. Una vez que conocemos el tamaño de píxel, es necesario determinar si nuestra cámara puede ofrecernos esa calidad y a que altura necesitaría trabajar para poder ofrecer esa precisión. Es muy útil para este proceso elaborar una tabla con las precisiones que podemos obtener con nuestra cámara a distintas alturas. C. ESTUDIO DE LA ZONA.

ING. EDUARDO GARAY

42

42

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

El estudio del relieve de la zona es un factor a tener en cuenta para determinar la dirección de vuelo. Este proceso se puede realizar de dos maneras, ya sea empleando cartografía a una escala menor o mediante una visita previa. De este modo se podrá determinar si es necesaria alguna subpasada debido a la presencia de accidentes geográficos. D. ELECCIÓN DE LOS RECUBRIMIENTOS. La elección de los recubrimientos es una de las variables más importantes en la ejecución de un vuelo. Dependiendo del producto final estos recubrimientos podrían variar, de modo que a mayor recubrimiento, menor superficie útil de fotografía ya que solo se utilizaría la zona central. Por norma general, en vuelos estándar se emplean los siguientes recubrimientos: • • •

Recubrimiento estándar para restitución: longitudinal 60%, transversal 30% Recubrimiento estándar para ortofoto: longitudinal 80%, transversal 40% Recubrimiento estándar para identificación: ambos 10%

E. CONDICIONES CLIMÁTICAS Y HORAS DE TOMAS FOTOGRÁFICAS. Un factor determinante a la hora de utilizar estos dispositivos UAV son las condiciones climáticas, ya que el viento puede desestabilizarlos fácilmente debido a su ligereza. En cuanto a la hora para la realización de la toma fotográfica, lo ideal es trabajar en las horas centrales del día y preferiblemente entre los meses de abril y agosto ya que las sombras arrojadas por los objetos serán mínimas. F. RELIEVE DEL TERRENO Como ya se mensiono anteriormente, cuando se tienen terrenos muy accidentados se debe realizar la planificacion de vuelo siguiendo el relieve del terreno y realizar la planificacion de manera transversal al terreno. 4.4

FORMULAS PARA LA PLANIFICACION DE VUELO

Para la planificacion de vuelo, se tienen las siguientes formulas:

ING. EDUARDO GARAY

43

43

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

ING. EDUARDO GARAY

44

44

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

5

PROCESO FOTOGRAMÉTRICO

5.1 PROCESO FOTOGRAMÉTRICO CONVENCIONAL Para poder obtener la posición tridimensional de un punto del objeto con precisión se necesita conocer con precisión la orientación externa de cada imagen en el espacio es decir su posición (X, Y, Z) y sus giros con respecto a los tres ejes denominados Ω, Φ, y K. (omega, phi y kapa) Una vez conocida la orientación de ambas fotos las coordenadas de un punto del objeto se obtienen por intersección de rayos homólogos, rayos proyectivos correspondientes al mismo punto en una fotografía y otra. Se trata de una intersección directa tridimensional. FIGURA 45 RAYOS HOMOLOGOS

Fuente: Conceptos fotogrametricos IMASGAL (2015)

Conocidas las orientaciones (X,Y,Z,Ω,Φ,K) de cada imagen , las coordenadas del objeto se obtienen por intersección de rayos. Cuando se trabaja con muchas imágenes es necesario que cada punto del objeto aparezca en al menos dos fotografías para poder llevar a cabo la intersección. 5.2 PROCESO FOTOGRAMETRICO AUTOMATICO El sofware que actualemte se utiliza para el procesamiento fotogramétrico de imágenes digitales (Pix4D, Agisoft Metashape, etc.) se caracteriza por que todo el proceso está automatizado, en las siguientes figuras se puede ver el flujo de trabajo que aplica el software agisoft metashape y el Pix4D

ING. EDUARDO GARAY

45

45

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

FIGURA 46 FLUJO DE TRABAJO PROGRAMA AGISOFT METASHAPE

Fuente: (Granados, 2018)

ING. EDUARDO GARAY

46

46

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

FIGURA 47 PROCESO DEL SOFTWARE PIX4D

Fuente: (Granados, 2018)

Para entender mejor el funcionamiento de estos softwares conocer el proceso de matching o correlado automático. 5.2.1 CORRELACIÓN AUTOMATICA La correlación se utiliza para encontrar puntos homólogos. La fotogrametría se basa en la medición de puntos homólogos para obtener las coordenadas terreno. En fotogrametría analógica y analítica, los pares de puntos homólogos se identificaban visualmente y se medían manualmente. Para poder realizar este paso

ING. EDUARDO GARAY

47

47

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

de manera automática ha sido necesario desarrollar distintos métodos de correlación hasta encontrar los más adecuados. Los métodos de correlación basados en el área comparan dos imágenes consecutivas, seleccionan una porción de la primera imagen, ventana patrón, se compara con la segunda imagen. Con este método se busca el área en que el valor digital de los pixeles que formaban la selección, sean lo más parecidos posible al patrón. Estos métodos trabajan directamente con los niveles de gris, los cuales proporcionan poca información y son procedimientos poco precisos. Para solucionar ese problema surge la correlación basada en características. La extracción de puntos de interés se basa en seleccionar pequeñas zonas de gran varianza o puntos de características diferenciadas mediante filtros matemáticos. Para ello los softwares como Metashape y Pix4D trabajan con imágenes piramidales. Las imágenes piramidales son una imagen resumen de las originales. Cada imagen original se divide en una serie de imágenes piramidales, cada una de ellas con una resolución diferente. Para localizar puntos característicos, Pix4D compara inicialmente las imágenes piramidales de menor resolución, de modo que, al encontrar un punto, va ascendiendo de imagen, hasta localizar una pequeña zona donde está el punto característico con una gran precisión. Con este método el proceso de correlación es mucho más rápido y eficaz, ya que un punto identificable en una imagen a baja resolución se podrá localizar con precisión a medida que aumenta la calidad de la imagen. FIGURA 48 IMAGENES PIRAMIDALES

Fuente: (Quirós, 2014)

6

MODELOS DIGITALES.

6.1 CARACTERÍSTICAS Un modelo digital es una representación numérica de algún fenómeno físico o geométrico. Existen distintas denominaciones para hablar de modelos digitales y no siempre se utilizan correctamente.

ING. EDUARDO GARAY

48

48

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

6.2 MODELO DIGITAL DE SUPERFICIE Y MODELO DIGITAL DE ELEVACIÓN Un modelo digital de elevaciones (MDE) representa numéricamente las elevaciones del terreno y es el término general que engloba tanto los modelos digitales del terreno (MDT) como los modelos digitales de superficie (MDS). La diferencia principal entre MDT y MDS es el modo de representar el terreno. Un MDT no tiene en cuenta ni árboles ni edificaciones, solo representa el terreno, mientras que un MDS representa todo lo que hay, ya sea terreno desnudo, tejados de edificios o copas de árboles. FIGURA 49 MDT y MDS

Fuente: https://acolita.com/diferencias-dsm-dem-dtm/

ING. EDUARDO GARAY

49

49

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

El software genera el modelo digital de superficie MDS y de manera aproximada se pude generar el modelo digital de terreno MDT 6.3 ORTOFOTOS. Una ortofoto es una imagen con la métrica convencional de un mapa o plano en el cual las dimensiones de los objetos son reales y no están deformadas por proyección central típicas de la fogorafia. Para ello es necesario corregir en la foto original los desplazamientos debidos a la inclinación del eje óptico de la cámara en el momento de la toma fotográfica (rectificación) y el desplazamiento radial debido al relieve de la superficie topográfica fotografiada. Por lo tanto, una ortofoto es un mapa hecho a partir de fotos, de manera que todos los detalles comprendidos en el terreno están en una perfecta posición planimétrica (x,y). FIGURA 50 ORTOFOTO

Fuente: https://www.soluciontopografia.com/como-descargar-una-ortofoto-de-maxima-actualidad

Para generar una ortofoto mediante software se necesitan imágenes con su orientación interna conocida (focal y punto principal), su orientación externa (posición y giros de la cámara) y un Modelo Digital de Terreno.

7

DEFICINICIÓN DE DRONE, UAV Y RPAS.

En la actualidad existe cierta confusión acerca de la forma de referirse a los vehículos aéreos no tripulados, a continuación, se describirán algunos de los apelativos que se utilizan normalmente y se indicará la diferencia entre ellos. Históricamente estos vehículos se han llamado “drones”, palabra inglesa que significa textualmente “zángano” y que corresponde al nombre con el que originalmente se denominaban las aeronaves militares no tripuladas. En la actualidad es el nombre más popularmente utilizado. ING. EDUARDO GARAY

50

50

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

Dentro de la terminología tecncica especifica específica se utlizan los siguientes términos: UAV – UAS y RPA – RPAS. UAV y UAS significan respectivamente “Unmanned Aerial Vehicle” y “Unmanned Aerial System”. La primera se refiere exclusivamente a la plataforma de vuelo, mientras que la segunda al sistema completo, es decir, incluyendo no sólo el segmento aéreo sino también el enlace de comunicaciones y la estación de tierra. Por lo tanto, ambas apelaciones son correctas dependiendo de si nos referimos a una parte o al conjunto del sistema. El término “unmanned” puede traducirse como “no tripulado”, por lo que un UAV (o UAS) es cualquier aeronave (o sistema) en que el piloto no esté físicamente a bordo. Al igual que en caso anterior, RPA o “Remotely Piloted Aircarft” se refiere a la plataforma de vuelo, mientras que RPAS, “Remotely Piloted Aircraft System” se refiere al sistema. La principal diferencia con el caso anterior es que, en el caso del RPA o RPAS, se hace mención expresa a la existencia de un piloto que opera la aeronave de forma remota, es decir utilizando un enlace de comunicaciones entre la estación de tierra y la aeronave, mientras que en el caso anterior no se especifica claramente la existencia de un piloto, sólo que, caso de haberlo, no está a bordo. 7.1 VUELO CON RPA En los últimos años se han desarrollado vehículos teledirigidos o de navegación autónomos (mediante GPS) capaces de cargar una cámara fotográfica, pudiéndose emplear para fotogrametría a baja altura. Encuentran aplicación en trabajos fotogramétricos a baja altura y en proyectos que antes eran siempre competencia de la topografía, constituyendo una alternativa más rápida y económica según los requerimientos de precisión. 7.2

CLASIFICACION DE LOS RPAs

Los RPAS comerciales se pueden clasificar de diversas maneras, pero la más sencilla es en función de su tipo de despegue en:

ING. EDUARDO GARAY

51

51

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

FIGURA 51 CLASIFICACION DE LOS RPAS

Fuente: Conceptos fotogrametricos IMASGAL (2015)

7.2.1 HELICÓPTERO Los drones tipo helicóptero son la herramienta más polivalente a la hora de realizar diferentes tipos de operación, posee una gran capacidad de carga y autonomía, debido a que solo posee un motor y una hélice de gran tamaño. sin embargo, los helicópteros son complejos a nivel mecánico, también es bastante complicado a la hora de ser piloteado y dominarlo suele llevar bastantes años de práctica. FIGURA 52 HELICOPTERO

Fuente: (Granados, 2018) ING. EDUARDO GARAY

52

52

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

7.2.2 MULTIROTOR Los RPAs multirotores son la herramienta más extendida actualmente. Proporciona una gran versatilidad y eficacia en las operaciones por su simpleza a la hora de ser pilotados y por la velocidad de montaje. Es una plataforma estable por naturaleza, debido a que los motores se encuentran a la misma distancia del centro de gravedad de la aeronave. Para tener en cuenta, cuantos más brazos tendremos más estabilidad y más seguridad, mientras que cuantos más motores tengamos más propulsión y consumo. FIGURA 53 RPAS MULTIROTOR

Fuente: DJI.com

7.2.3 ALA FIJA El RPA ala fija es el claro ganador en lo que a autonomía se refiere. Según esté equipado con motor eléctrico o de explosión, puede permanecer en el aire varias horas. Es la plataforma perfecta para trabajos que abarquen una gran extensión de terreno. Por otra parte, es el más eficiente aerodinámicamente hablando, ya que, con la configuración adecuada, puede permanecer bastante tiempo sin necesidad de utilizar el motor gracias al planeo. Por otra parte, el hecho de poder planear hace que sea una plataforma mucho más segura, ya que en un supuesto fallo de motor puede planear hasta llegar al punto de aterrizaje

ING. EDUARDO GARAY

53

53

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

FIGURA 54 ALA FIJA

Fuente: (Granados, 2018)

Generalmente, para los trabajos de fotogrametría con RPAs se suelen emplear tanto los de ala fija como los de rotores, por eso es muy importante conocer cuáles son las limitaciones de cada dispositivo para poder elegir el que mejor se adapte al trabajo. Comparando las características de los diferentes dispositivos se observa que los mejores resultados los proporcionan tanto los de ala fija como los rotores. Una de las características destacables de los rotores es la posibilidad de acoplarles distintos sensores, en función de la carga máxima admisible. También cabe señalar la posibilidad de variar el ángulo con el que se toma cada una de las imágenes. Ambas características diferencian a los rotores de el ala fija, ya que estos últimos tienen el sensor acoplado al vehículo. 7.3 ALTURAS DE VUELO Y AUTONOMÍA En los trabajos fotogramétricos suele haber un requerimiento de precisión que determina el tamaño del píxel que a su vez determina la altura de vuelo. Si la altura de vuelo adecuada para el trabajo excede la capacidad del aparato se puede volar más bajo, obteniendo una mayor precisión, pero incrementándose los costes debido al mayor número de fotografías necesarias. El campo en el que los RPAs resultan competitivos no excede los 200 m de altura de vuelo. Los aparatos de hélices consumen más energía y tienen por ello menor autonomía. En particular, el consumo es mayor si tienen que elevarse mucho, lo que en estos momentos los restringe hasta 200 m de altura. Sin embargo, tienen la posibilidad de ING. EDUARDO GARAY

54

54

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

quedarse parados, lo que supone una ventaja enorme para multitud de trabajos (para que la foto no salga movida), y no tienen restricciones en cuanto a la forma de la trayectoria de vuelo. Los de ala pueden volar más rápido y durante más tiempo, cubriendo extensiones mucho mayores en un solo vuelo, sin embargo, si el trabajo exige un vuelo a baja altura, la imagen sufriría lo que se conoce como arrastre y aparecería movida. La autonomía de vuelo para aparatos de hélice va aumentando rápidamente a medida que se mejoran los diseños. Los aparatos de ala ya están bastante optimizados al respecto. Tanto unos como otros se verán beneficiados de futuros desarrollos en baterías. En estos momentos un tiempo de vuelo de referencia son 30 min. Los UAVs de ala fija tienen el sensor unido rígidamente al avión y van equipados con GPS y giróscopos de precisión, que sin llegar a alcanzar la precisión suficiente como para poder eliminar los puntos de apoyo de campo sí permiten reducirlo considerablemente, constituyéndose en substitutos inmediatos de los aviones para extensiones de hasta 50--80 km2. 7.4 APLICACIONES Por sus características, los aparatos de hélices son una alternativa para trabajos topográficos y vuelos fotogramétricos pequeños: yacimientos arqueológicos, canteras, pequeñas zonas urbanas, acantilados y derrumbes, obras portuarias, acopios de materiales, ecosistemas costeros (playas, dunas, roquedos...), polígonos industriales, control de cultivos (se puede cargar una cámara multiespectral o térmica) y en general cualquier trabajo que no exceda de 20 km2. Para extensiones más grandes el menor número de fotos de un vuelo fotogramétrico clásico hace que el aparato de hélice deje de ser competitivo. En trabajos lineales no hay un límite específico para la longitud del trabajo ya que se encadena un vuelo tras otro y la relación entre número de fotos necesarias mediante el aparato de hélice y mediante fotogrametría convencional se mantiene constante. En los trabajos lineales, si es necesario mucho detalle normalmente se termina antes por topografía. No hay que olvidar que en un trabajo fotogramétrico la traza ha de recorrerse igualmente para dar los puntos de apoyo. Los de hélices, dada su versatilidad, permiten realizar lo que serían trabajos mixtos de aérea/terrestre, combinando fotos verticales con fotos oblicuas, lo que se puede aplicar a edificios, acantilados, etc., así como suplir la topografía cuando las características de la zona a levantar hacen imposible el empleo de técnicas topográficas, como áreas de acceso restringido o peligrosas. Los aparatos de ala fija son adecuados para vuelos pequeños y medios según la escala de la fotogrametría clásica. Al no poder detenerse en el aire ni volar por debajo de una cierta velocidad, por ejemplo 50 km/h, no se pueden emplear para trabajos bajos porque las fotos saldrían borrosas. Un yacimiento arqueológico o una escollera, por ejemplo, no se podrían hacer con aparatos de ala fija. Una velocidad de vuelo de 54 km/h es igual 15 m/s, lo que significa que con una exposición de ING. EDUARDO GARAY

55

55

FOTOGRAMETRIA DIGITAL PARA ESTUDIANTES DE INGENIERIA

1/500 el desplazamiento del píxel es de 3 cm, por lo que no se podría obtener un píxel menor de 5 cm ya que a imagen saldría borrosa. En días luminosos el tiempo de exposición puede hacerse menor y con ello el tamaño de píxel, pero en ciertas regiones y épocas del año no se puede depender de días completamente despejados para realizar los vuelos.

8

BIBLIOGRAFÍA

Granados, Y. (2018). Manual Para el Post Proceso de Imagenes obenidas mediante RPAs . Caldas. Leyca Geosystems. (s/a). Conceptos Fotogramétricos. Quirós, E. (2014). Introduccion a la Fotogrametria . Caceres - España. Sevicio Aerofotogrametrico de la Fuerza Aerea de Chile . (2004). Principios y Metodos de la Fotointerpretación. Santiago - Chile.

Paginas web consultas https://mgmdenia.files.wordpress.com/2017/12/espectro-luz.png?w=530&h=233 https://www.dzoom.org.es/wp-content/uploads/2009/10/ https://www.fotonostra.com/digital/fomacionimagen.htm https://www.espacioprofundo.com.ar/astrofotografia.html/ https://encrypted-tbn0.gstatic.com/ https://www.dzoom.org.es/la-distancia-focal-todo-lo-que-necesitas-saberexplicado-con-ejemplos/ http://ing.unne.edu.ar/dep/goeciencias/fotointer/pub/teoria2011/parte01/fotom. pdf https://www.asdronspain.com/wp-content/uploads/GSD-1.jpg http://blog.fundacionlaboral.org/tag/drones-en-construccion/ https://workingwithdrones.com/groundcontrol/ http://www.gisandbeers.com/puntos-de-control-drones-plantillas-dianas/ https://www.aerial-insights.co/blog/6-aplicaciones-para-planificar-el-vuelo-de-tudron/

ING. EDUARDO GARAY

56

56