2024-03-28T11:24:42Zhttps://minerva.usc.es/oai/requestoai:minerva.usc.es:10347/129912020-09-07T10:17:16Zcom_10347_9611com_10347_6399com_10347_6394col_10347_11573
López Gómez, Juan
2015-04-14T11:06:59Z
2015-04-14T11:06:59Z
2011
http://hdl.handle.net/10347/12991
En este trabajo se presentan dos algoritmos de detección de objetivos en imágenes hiperespectrales específicamente desarrollados para su implementación sobre GPU, ambos basados en la aplicación de ANNs (Artificial Neural Networks).
El primer algoritmo, denominado algoritmo de detección de objetivos a nivel de píxel, basa su búsqueda en la exploración píxel a píxel de la imagen hiperespectral, detectando si en cada uno de ellos se encuentra el objetivo buscado, o una parte del mismo. El segundo algoritmo, denominado algoritmo de detección de objetivos multi-resolución, basa su búsqueda en la exploración jerárquica
de áreas de tamaño decreciente de imagen (volúmenes hiperespectrales), detectando y acotando el objetivo independientemente de la escala a la que este se encuentre.
En la implementación sobre GPU de las ANNs utilizadas en ambos algoritmos se analizan dos aproximaciones diferentes de paralelización: paralelismo a nivel neuronal, y paralelismo a nivel
de enlace sináptico. Además, se tienen en cuenta un gran número de estrategias de optimización específicas para GPU, con el fín de explotar adecuadamente la enorme capacidad de cómputo de las tarjetas, y de ocultar la latencia en los accesos a memoria.
En la fase de resultados los algoritmos son testeados mediante la búsqueda de objetivos sobre dos tipos diferentes de imágenes hiperespectrales, una aplicada al reconocimiento de materiales, y otra aplicada a funciones de búsqueda y rescate. Los tiempos de ejecución obtenidos muestran la efectividad de los algoritmos de detección desarrollados, así como la conveniencia de su implementación sobre GPU.
spa
open access
Algoritmos de detección
Imágenes hiperespectrales
Imaxes hiperespectrais
Redes neuronales artificiales
Redes neuronais artificiais
Artificial neural networks
ANNs
GPU
Graphics processing unit
Unidad de procesamiento gráfico
Unidade de procesamento gráfico
Desarrollo sobre GPU de técnicas para la detección de objetivos en imágenes hiperespectrales mediante la utilización de redes neuronales
master thesis
oai:minerva.usc.es:10347/298422023-01-12T03:02:37Zcom_10347_9611com_10347_6399com_10347_6394col_10347_11573
Rosales Rodríguez, Mariadalit
2023-01-11T11:51:56Z
2023-01-11T11:51:56Z
2022-07-26
http://hdl.handle.net/10347/29842
Due to the increase of hybrid environments and the rise of Cloud resources in the IT sector, we have also seen an increase in the complexity of the administration we face today. Today, more than ever, automation tools are needed to facilitate not only the creation but also the management of these new environments. The lack of standardization, especially for HPC systems, forces us to present a proposal to evaluate the different tools that claim to facilitate the automation of this type of systems in Cloud environments and a subsequent analysis of them. In this Master's Thesis we will discover the importance of Cloud environments in HPC systems, the challenges that this presents and an analysis methodology that will serve as a reference for administrators and IT professionals who need to manage such complex and dynamic environments as HPC clusters in Cloud environments.
Debido al aumento de entornos híbridos y al auge de los recursos Cloud en el sector IT, se ha podido observar también un incremento en la complejidad de administración de los mismos. Hoy más que nunca son necesarias las herramientas de automatización que faciliten no sólo la creación sino también la gestión de estos nuevos entornos. La falta de estandarización especialmente para los sistemas HPC fuerza a presentar una propuesta de evaluación de las distintas herramientas que presumen de facilitar la automatización de este tipo de sistemas en entornos Cloud y un posterior análisis sobre las mismas. En este Trabajo Final de Master descubriremos la importancia de los entornos Cloud en los sistemas HPC, los retos que ello presenta y una metodología de análisis que sirva de referencia para administradores y profesionales del sector TI que se vean en la necesidad de gestionar entornos tan complejos y dinámicos como los clústeres HPC en entornos Cloud.
eng
An error occurred getting the license - uri.
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
HPC
Cloud
IaC
Over IaC
IM
Elasticluster
Terraform
Ansible
Viability analysis of infrastructure managers for the automated deployment of virtual HPC clusters on Cloud environments
master thesis
oai:minerva.usc.es:10347/296072022-12-17T03:02:57Zcom_10347_9611com_10347_6399com_10347_6394col_10347_11573
Goldar Dieste, Álvaro
2022-12-16T11:25:38Z
2022-12-16T11:25:38Z
2022-06
http://hdl.handle.net/10347/29607
Dentro del problema de clasificar imágenes multi e hiperespectrales, las técnicas
basadas en aprendizaje profundo son las opciones más empleadas. El motivo es que
son capaces de alcanzar mayores precisiones de clasificación que los métodos de
aprendizaje automático tradicionales empleados anteriormente. Concretamente, las
Redes Neuronales Convolucionales (CNN) han resultado ser la arquitectura más
popular en la actualidad para resolver estos problemas de clasificación multiclase.
No obstante, aunque las arquitecturas neuronales son herramientas muy efectivas,
también requieren una gran cantidad de datos de aprendizaje para extraer todo su
potencial. Además, los conjuntos de datos que se emplean en teledetección tienden
a presentar dos grandes problemas: la escasez de datos anotados y el desbalance
entre clases, de modo que ciertas clases de elementos tienen muchas más muestras
que otras. Esta problemática limita la capacidad de los métodos de aprendizaje
automático, y lo hace especialmente en las arquitecturas neuronales. Considerando
lo común que es el proceso de clasificación en teledetección, resulta de gran interés
encontrar vías para minimizar el impacto de las limitaciones de los conjuntos de datos
y evitar perjudicar así el desempeño de los clasificadores basados en aprendizaje
profundo que se emplean en la actualidad en este dominio.
En este trabajo se propone un esquema de clasificación de imágenes de teledetección fundamentado en aprendizaje profundo, cuyo diseño ha sido guiado por el
objetivo de minimizar el impacto de la escasez de muestras y desbalance de clases en
los conjuntos de datos, para maximizar así la calidad de las clasificaciones realizadas.
Para ello, se adopta como clasificador del esquema una arquitectura convolucional
profunda –CNN residual–, al ser la base de los mejores clasificadores de la actualidad.
El entrenamiento de esta red se apoya con técnicas de aumentado de datos. Por
una parte, se aplican técnicas de aumentado tradicionales a las muestras de entrenamiento reales. Por otra parte, se integra la CNN residual en un esquema Generative
Adversarial Networks (GAN), dentro del cual existe una red neuronal auxiliar que
genere nuevas muestras sintéticas realistas que suministrar al clasificador durante el
entrenamiento. Para mejorar la calidad de la información de entrenamiento, se aplica
una etapa de segmentación en superpíxeles a la imagen como preprocesamiento,
extrayéndose a posteriori una muestra real por cada segmento. Para maximizar la
calidad de las clasificaciones generadas, se evalúa el comportamiento de las arquitecturas neuronales bajo una multitud de configuraciones diferentes, para identificar
y preservar los criterios de diseño que les permiten alcanzar un mejor desempeño.
También se aplican diversas optimizaciones computacionales para reducir todo lo
posible el tiempo de entrenamiento del esquema desarrollado.
Desde el punto de vista investigador, el interés de este trabajo radica en la
combinación de diferentes técnicas que se habitúan emplear por separado en la
literatura, ahora bajo un único esquema de clasificación. Además, se adoptará un
diseño de GAN todavía no evaluado en el campo de la teledetección, que presenta
mejoras en su estructura para alcanzar mejores desempeños en problemas que
trabajen con conjuntos de datos limitados.
spa
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
Clasificación de imágenes
Teledetección
Aprendizaje profundo
Segmentación en superpíxeles
Redes neuronales convolucionales
Redes residuales
BAGAN
GAN
Aumentado de datos
Clasificación de imágenes de teledetección con técnicas de aprendizaje profundo en situaciones de escasez de datos
master thesis
oai:minerva.usc.es:10347/129712020-11-11T08:30:19Zcom_10347_9611com_10347_6399com_10347_6394col_10347_11573
Rodríguez Penas, David
2015-04-14T07:39:15Z
2015-04-14T07:39:15Z
2012
http://hdl.handle.net/10347/12971
En el presente proyecto de fin de máster se ha analizado la problemática del despliegue de aplicaciones HPC (High Performance Computing) en una infraestructura cloud multipropósito (no exclusivamente dedicadas a aplicaciones de esta índole).
Esta iniciativa viene motivada por el elevado coste en el mantenimiento y adquisición de una infraestructura HPC dedicada a computación de altas prestaciones, así como a la posibilidad de aprovechamiento de recursos disponibles en entornos cloud de propósito general cuya existencia es cada vez más habitual en las empresas e instituciones.
La implantación de un servicio HPC sobre una plataforma cloud genérica y multipropósito, ofrece reducción en costes de infraestructura. Pero no es una tarea sencilla: la competencia de los diferentes tráficos por los recursos de la arquitectura que componen el cloud degradará la calidad de servicio de las diferentes tareas HPC
spa
open access
HPC
High performance computing
Cloud
Computación en altas prestacións
Informática na nube
Computación en altas prestaciones
Informática en la nube
Despregue de servizos HPC en contornos cloud multipropósito
master thesis
oai:minerva.usc.es:10347/265632021-07-13T02:02:39Zcom_10347_9611com_10347_6399com_10347_6394col_10347_11573
Quintana Díaz, Mahy
2021-07-12T07:50:27Z
2021-07-12T07:50:27Z
2016-06
http://hdl.handle.net/10347/26563
En este trabajo, se presenta la extensión de un algoritmo de detección de bordes basado en entropía para imágenes en escala de grises a imágenes hiperespectrales, así como su proyección eficiente sobre GPUs basadas en CUDA. El algoritmo detector de bordes del que se parte no utiliza las derivadas primera y segunda de la imagen para detectar bordes, a diferencia de la mayoría de los algoritmos, que emplean operadores de convolución (aproximaciones a las derivadas para valores discretos) para detectar las zonas de variación de la luminancia que indiquen la presencia de bordes, este algoritmo se basa en la umbralización de la imagen, haciendo uso de la entropía, para luego proceder a la detección de bordes mediante el cálculo de probabilidades. Para evaluar el algoritmo detector de bordes basado en entropía, sobre imágenes en escala de grises, se hace una comparativa en calidad de detección de bordes con algoritmos como Canny y LoG que son comunes en la literatura. Además para comprobar la robustez del mismo se realizan varias pruebas frente a diferentes condiciones de ruido y contraste en las imágenes de entrada. En cuanto a la extensión del algoritmo a imágenes hiperespectrales, se han desarrollado una serie de técnicas que permiten a este algoritmo, inicialmente pensado para imágenes bidimensionales en escala de grises, trabajar con imágenes de una mayor dimensionalidad. Los algoritmos obtenidos han sido evaluados en cuanto a la eficiencia en la detección de bordes comparándolos con otros algoritmos en la bibliografía. Los resultados mostrarán cómo el algoritmo basado en entropía es especialmente eficiente sobre imágenes hiperespectrales con un número elevado de bandas. En lo que respecta a la implementación en GPU, se exponen diferentes estrategias de paralelización empleadas que permiten al algoritmo sacar mayor provecho de la arquitectura disponible. Con el fin de evaluar el algoritmo y su implementación, este, se ha aplicado sobre imágenes hiperespectrales reales de sensado remoto y se han analizado los resultados. Concretamente, se analiza el tiempo de ejecución en CPU y se compara con el tiempo obtenido en GPU de modo que en GPU se consigue hasta 54x de mejora respecto a la versión secuencial en CPU para una imagen de tamaño 715x1096 y 102 bandas.
spa
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
Procesado de imágenes
Detección de bordes
Algoritmo detector de bordes
Umbralización
Detección de bordes por umbralización basada en entropía sobre imágenes multidimensionales en GPU
master thesis
oai:minerva.usc.es:10347/310402023-10-20T00:02:59Zcom_10347_9611com_10347_6399com_10347_6394col_10347_11573
del Castillo de la Rosa, Daniel
2023-10-19T10:55:19Z
2023-10-19T10:55:19Z
2023-06
http://hdl.handle.net/10347/31040
El registro de imágenes es una tarea destinada
a alinear imágenes como un paso anterior a
otros tipos de procesado como son la detección de
cambios o el seguimiento de objetos. En el caso de
imágenes de teledetección hiperespectrales tenemos
una gran cantidad de información tanto espacial como
espectral para cada imagen. Esto ha propiciado la
aparición de métodos de registro específicos para este
tipo de imágenes que no solo usan las bandas RGB,
como sucede en los algoritmos más clásicos, sino que
además aprovechan la información espectral contenida
en todas las bandas, que pueden llegar a ser del
orden de un centenar. No obstante, para algunos de
estos algoritmos, especialmente los basados en detecci
ón de características como líneas, puntos o regiones,
el tiempo de ejecución sigue siendo una barrera para
su uso en aplicaciones que requieren un procesado
especialmente rápido. Uno de estos algoritmos es
Hyperspectral Image-Maximally Stable Extremal Regions
(HSI-MSER), que trata de encontrar regiones comunes
en las imágenes explotando la información disponible
en las bandas espectrales para conseguir un mejor
registro. En este artículo se presenta una versión
paralela del algoritmo HSI-MSER sobre una arquitectura
heterogénea de bajo coste. Ha sido diseñada para
explotar eficientemente las arquitecturas de la CPU
y GPU usando OpenMP y CUDA, respectivamente.
Como resultado, para imágenes hiperespectrales de
teledetección disponibles en la bibliografía estado del
arte se consiguen aceleraciones de hasta 7× respecto
a la versión secuencial de HSI-MSER.
spa
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
Registro de imágenes
Hiperespectral
Teledetección
CUDA
GPU
OpenMP
Implementación paralela del algoritmo HSI-MSER para el registro de imágenes hiperespectrales
master thesis
oai:minerva.usc.es:10347/298432023-01-12T09:07:26Zcom_10347_9611com_10347_6399com_10347_6394col_10347_11573
Pintos Castro, Irene
2023-01-11T11:53:00Z
2023-01-11T11:53:00Z
2022
http://hdl.handle.net/10347/29843
Using paired images of JAST/T80 Telescope in OAJ and of Hubble Space Telescope we aim at increasing the resolution of JAST/T80 images with the objective of enhancing object detection. Higher resolution versions of JAST/T80 images in crowded areas of the sky will significantly increase the number of stars and/or galaxies detected, enabling a better measurement of their photometry. We pre-processed both low-resolution and high-resolution images to build a dataset of paired crops, which is used to train the Real-ESRGAN neural network. We are able to get super-resolved images with a 4× scale and a FSIM=0.8903, showing an improvement in the source detection in crowded areas. However, visual inspection of bright stars and nearby galaxies reveals that there is room for learning a better model that can reproduce the PSF and the details of the extended objects.
eng
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
Object detection
Astronomical images
Super-resolution techniques
Super-resolution in astronomical images: enhancing object detection
master thesis
oai:minerva.usc.es:10347/129972020-11-11T08:30:02Zcom_10347_9611com_10347_6399com_10347_6394col_10347_11573
Pérez Montes, Diego
2015-04-14T11:47:15Z
2015-04-14T11:47:15Z
2014
http://hdl.handle.net/10347/12997
Desde los inicios de la Computación de Altas Prestaciones (High Performance
Computing), la simulación de modelos climáticos ha sido una de sus principales
aplicaciones. Por este motivo, tradicionalmente, los modelos climáticos han sido ejecutados sobre supercomputadores por sus requerimientos y costes. Reducir este coste fue el motivo principal del desarrollo del proyecto climateprediction.net (también llamado CPDN) [1], una iniciativa de computación distribuida cuyo propósito es ejecutar diferentes (miles) de simulaciones de modelos climáticos para investigar las incógnitas sobre determinados parámetros. Este estudio es fundamental para poder comprender cómo pequeños cambios o variaciones en los valores pueden afectar a los modelos, por ejemplo, en investigaciones sobre cambio climático. El proyecto es actualmente propiedad de la Universidad de Oxford, que usa voluntarios a través del framework BOINC (Berkeley Open Infrastructure for Network Computing) [2] (http://www.climateprediction.
net).
eng
open access
Computación distribuída
Informática na nube
Informática en la nube
Modelos climáticos
Cloud
Climateprediction.net: A cloudy approach
master thesis