Maxwell Para Simples Indexação

Título
[en] ATROUS CGAN FOR SAR TO OPTICAL IMAGE TRANSLATION

Título
[pt] ATROUS CGAN PARA TRADUÇÃO DE IMAGENS SAR À ÓTICA

Autor
[pt] JAVIER NOA TURNES

Vocabulário
[pt] REDES ADVERSARIAS GENERATIVAS CONDICIONAIS

Vocabulário
[pt] RADAR DE ABERTURA SINTETICA

Vocabulário
[pt] CONVOLUSOES ATROUS

Vocabulário
[en] CONDITIONAL GENERATIVE ADVERSARIAL NETWORKS

Vocabulário
[en] SYNTHETIC APERTURE RADAR

Vocabulário
[en] ATROUS CONVOLUTIONS

Resumo
[pt] A captura de cenas de cobertura da Terra com sensores óticos de satélite é frequentemente limitada pela presença de nuvens que corrompem as imagens coletadas. Entre os métodos para recuperar imagens óticas de satélite corrompidas por nuvens, várias abordagens de tradução de imagemimagem usando Redes Adversárias Generativas (GANs) têm surgido com bons resultados, conseguindo criar imagens óticas realistas a partir de imagens de Radar de Abertura Sintética (SAR). Os métodos baseados em GANs condicionais (cGAN) propostos até agora para a síntese de imagens SAR-óticas tendem a produzir imagens ruidosas e com pouca nitidez. Neste trabalho, propomos a atrous-cGAN, uma nova arquitetura que melhora a transformação de imagem SAR em ótica. As redes propostas para o gerador e discriminador contam com convolusões dilatadas (atrous) e incorporam o módulo Pirâmide Espacial Atrous Pooling (ASPP) para realçar detalhes finos na imagem ótica gerada, explorando o contexto espacial em várias escalas. Este trabalho apresenta experimentos realizados para avaliar o desempenho da atrous-cGAN na síntese de imagens Landsat a partir de dados Sentinel-1A, usando quatro bases de dados públicas. A análise experimental indicou que a atrous-cGAN supera o modelo clássico pix2pix como uma ferramenta de aprendizado de atributos para segmentação semântica. A proposta também gera imagens com maior qualidade visual, e em geral com maior semelhança com a verdadeira imagem ótica.

Resumo
[en] The capture of land cover scenes with optical satellite sensors is often constrained by the presence of clouds that corrupt the collected images. Among the methods for recovering satellite optical images corrupted by clouds, several image to image translation approaches using Generative Adversarial Networks (GANs) have emerged with profitable results, managing to create realistic optical images from Synthetic Aperture Radar (SAR) data. Conditional GAN (cGAN) based methods proposed so far for SAR-to-optical image synthesis tend to produce noisy and unsharp optical outcomes. In this work, we propose the atrous-cGAN, a novel cGAN architecture that improves the SAR-to-optical image translation. The proposed generator and discriminator networks rely on atrous convolutions and incorporate the Atrous Spatial Pyramid Pooling (ASPP) module to enhance fine details in the generated optical image by exploiting spatial context at multiple scales. This work reports experiments carried out to assess the performance of atrouscGAN for the synthesis of Landsat images from Sentinel-1A data based on four public datasets. The experimental analysis indicated that the atrouscGAN overcomes the classical pix2pix model as a feature learning tool for semantic segmentation. The proposal also generates higher visual quality images, in general with higher similarity with the true optical image.

Orientador(es)
RAUL QUEIROZ FEITOSA

Coorientador(es)
PATRICK NIGRI HAPP

Banca
RAUL QUEIROZ FEITOSA

Banca
LEONARDO ALFREDO FORERO MENDOZA

Banca
PATRICK NIGRI HAPP

Banca
WESLEY NUNES GONCALVES

Catalogação
2020-11-18

Apresentação
2020-08-12

Tipo
[pt] TEXTO

Formato
application/pdf

Idioma(s)
INGLÊS

Referência [pt]
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=50359@1

Referência [en]
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=50359@2

Referência DOI
https://doi.org/10.17771/PUCRio.acad.50359


Arquivos do conteúdo
NA ÍNTEGRA PDF