2024-03-28T19:20:46Zhttps://minerva.usc.es/oai/requestoai:minerva.usc.es:10347/296052022-12-16T11:16:54Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410oai:minerva.usc.es:10347/265442021-07-06T08:25:13Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2021-06-30T08:48:10Z
urn:hdl:10347/26544
Sistema de visualización pública de estado de los sistemas integrado con Zabbix
García Spínola, Sergio
Fernández Pena, Tomás (dir.)
Guillén Camba, Fernando
Suárez de Lis, Jorge
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Zabbix
Administración de sistemas
Triggers
Detección de incidencias
Traballo Fin de Grao en Enxeñaría Informática. Curso 2014-2015
Este trabajo de fin de grado busca responder a una necesidad del personal de administración de sistemas de un centro de investigación: poder establecer una comunicación con el público de manera eficaz y sencilla en aquellas ocasiones en que sea necesario informar del estado de los sistemas y de paradas programadas y no programadas. En la actualidad, están utilizando el sistema de monitorización Zabbix. Este tipo de herramientas se centran en las funciones del administrador de cara al sistema, dejando un vacío en lo que se refiere a la interacción con los usuarios. La solución planteada para resolver este problema y desarrollar este trabajo de fin de grado sigue el modelo empleado por Google en su \pizarra de estado" para servicios, que encontramos en la web Google Apps Status Dashboard. La herramienta Zabbix es empleada con el objetivo de recabar información en tiempo real sobre el estado de un equipo, una máquina virtual, una base de datos o incluso algunos componentes hardware, a los que internamente denomina hosts. A través de Zabbix los administradores tienen la posibilidad de obtener información de manera selectiva, es decir, pueden especificar qué parámetros se quiere observar en cada host. Por ejemplo, se puede conocer la cantidad de memoria libre en disco, la cantidad de procesos ejecutándose o si el host se ha reiniciado. Las opciones que ofrece esta herramienta son numerosas y variadas. Su funcionalidad no se limita a recoger información, sino que proporciona métodos de análisis y evaluación. Nuestro interés se centra en los elementos denominados triggers, ya que gran parte de la funcionalidad de la aplicación se desarrollará sobre ellos.
2021-06-30T08:48:10Z
2021-06-30T08:48:10Z
2015-09
bachelor thesis
http://hdl.handle.net/10347/26544
spa
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
oai:minerva.usc.es:10347/178532020-01-31T09:57:02Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2018-11-27T12:48:30Z
urn:hdl:10347/17853
Implementación de un Sistema de Gestión de Continuidad de Negocio alineado con la ISO 22301 y la ISO 27031
Sánchez Guerra, Lidia
Cotos Yáñez, José Manuel
Fernández García, Uxía
Universidade de Santiago de Compostela. Departamento de Electrónica e Computación
ISO 22301
ISO 27031
SGCN
Sistema de Gestión de Continuidad de Negocio
El proyecto que se presenta en este documento tiene como objeto el desarrollo e implementación de un Sistema de Gestión de Continuidad de Negocio (en adelante, SGCN), alineado con los estándares internacionales ISO 22301 e ISO 27031, para la empresa Ozona (https://www.ozonaconsulting.com/).
El proyecto se realiza en el marco de trabajo regido por el convenio de colaboración entre Ozona y USC para la realización de prácticas en empresa y trabajos de fin de grado.
Mediante un SGCN, una organización puede asegurar la disponibilidad de sus procesos de negocio críticos ante situaciones de interrupción, así como implementar medidas preventivas para evitar los efectos negativos que puedan causar dichas situaciones. Por ejemplo: el servicio de virtualización es básico para que la empresa pueda entregar sus servicios a los clientes. Si el servicio de virtualización no está disponible, no habrá entrega de servicios y, por tanto, no se cumplirán los requisitos contractuales con dichos clientes provocando, entre otras, pérdidas económicas, pérdida de la reputación… Será necesario entonces realizar una evaluación de toda la empresa para identificar los servicios con mayor impacto sobre ésta, las amenazas que pueden materializarse y causar interrupciones, y la probabilidad de ocurrencia de éstas; es decir, realizar un proceso de análisis de riesgos, a partir del cual se tomarán las medidas pertinentes para evitar interrupciones y así asegurar la supervivencia empresarial ante situaciones adversas.
La norma ISO 22301 especifica los requisitos necesarios para el establecimiento, desarrollo, implementación, operación, monitorización y mejora de un SGCN. El estándar ISO 27031, alineado con la ISO 22301, incluye la especificación de las buenas prácticas para alinear las Tecnologías de la Información y las Comunicaciones (en adelante, TIC) con la continuidad de negocio.
Debido a la relevancia que tienen los servicios de Tecnologías de la Información (en adelante, TI) en Ozona, y la existencia de un Sistema de Gestión de Seguridad de la Información ya implementado, se tendrán en cuenta, para este proyecto, ambos estándares.
Adicionalmente a estos estándares, también serán utilizadas otras normas ISO alineadas con la continuidad de negocio. En el Capítulo 3 de esta memoria, se presentan en detalle todos los estándares utilizados para el desarrollo de este proyecto.
2018-11-27T12:48:30Z
2018-11-27T12:48:30Z
2017-02
bachelor thesis
http://hdl.handle.net/10347/17853
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
open access
oai:minerva.usc.es:10347/265512021-07-07T02:02:41Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2021-07-06T11:38:31Z
urn:hdl:10347/26551
Xeración automática de prognósticos meteorolóxicos a curto prazo con técnicas avanzadas de xeración de linguaxe natural
Iglesias Freire, Diego
Bugarín Diz, Alberto José
Ramos Soto, Alejandro
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Prognóstico meteorolóxico
Meteoroloxía
Análise de datos
Xeración de linguaxe natural
NLG
Xeración de textos
Traballo Fin de Grao en Enxeñaría Informática. Curso 2015-2016
A ciencia de datos (Data Science) sempre intentou extraer coñecemento de
grandes volumes de datos mediante a súa interpretación utilizando métodos
analíticos e técnicas de visualización. Sen embargo este coñecemento extraído
no proceso de análise presentase aos usuarios dunha maneira que non sempre
é facil de interpretar e, de feito, moitas veces é necesaria unha formación previa
para chegar ao seu entendemento. Non solemos pensar na linguaxe coma unha interface de usuario, pero se nos paramos a pensalo dámonos de conta de que realmente o é. Todos utilizamos a linguaxe para plasmar os nosos pensamentos e despois envialos a través das nosas voces, teclados, pantallas táctiles, etc. O obxectivo final é sempre o mesmo, que
o receptor entenda os nosos pensamentos da mesma maneira que nos o facemos.
Polo tanto, por qué non vamos utilizar a linguaxe natural para comunicar toda esa información xerada por un analista de datos? A disciplina de xeración de linguaxe natural (NLG) busca facer isto posible xerando texto en linguaxe natural, que sexa coherente, para satisfacer un ou máis obxectivos comunicativos. Sen embargo, a NLG non se aplica só no ámbito aquí descrito, senón que se utiliza nunha cantidade inxente de sistemas dispares. Por exemplo, unha das tecnoloxías nas que se están facendo máis avances hoxe en día son os asistentes persoais. Sistemas coma Apple Siri o Google Now permítennos falar cos nosos
dispositivos, que son capaces de entender as preguntas que lles facemos e xerar
unha resposta útil en linguaxe natural. Todo este proceso nútrese das diferentes
técnicas de NLG. Entre as diversas aproximacións existentes dentro da NLG, destaca especialmente a rama especializada na xeración de textos a partir de conxuntos de datos numéricos coñecida coma "data-to-text" (D2T), que nos últimos anos está experimentando
un importante auxe científi co e comercial debido á cada vez maior cantidade de datos que os expertos deben manexar e interpretar nos seus respectivos dominios. Os sistemas D2T axudan aos expertos e usuarios a aforrar esforzo e tempo na xeración de textos. Nos últimos anos desenvolvéronse múltiples sistemas de xeración automática de novas en medios de comunicación, e-saúde, supervisión e alertas en procesos industriais e incluso, sistemas de información medioambiental e meteorolóxica. A este ultimo grupo pertence a aplicación desenvolta neste proxecto, jGALiWeather, unha aplicación D2T que é capaz de xerar predicións meteorolóxicas textuais para varias variables meteorolóxicas coma o estado do ceo ou a temperatura.
2021-07-06T11:38:31Z
2021-07-06T11:38:31Z
2016-07
bachelor thesis
http://hdl.handle.net/10347/26551
glg
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
oai:minerva.usc.es:10347/239482021-01-09T03:06:36Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2020-12-14T08:56:43Z
urn:hdl:10347/23948
Sistema de recomendaciones automáticas de soluciones basado en el ámbito de la gestión de incidencias
Val Barbeira, Javier
Cariñena Amigo, Purificación
Ríos Val, Daniel
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Elasticsearch
ELK Stack
Kibana
Logstash
Incidencias
Traballo Fin de Grao en Enxeñaría Informática. Curso 2019-2020
El objetivo principal de este trabajo es implementar un sistema de recomendación
capaz de complementar el proceso de resolución de incidencias, mediante
una búsqueda de resoluciones ya aplicadas con un mayor nivel de coincidencia en
el título del ticket. Este sistema debe ser adaptable a distintos clientes, sin un
coste elevado.
2020-12-14T08:56:43Z
2020-12-14T08:56:43Z
2020-02
bachelor thesis
http://hdl.handle.net/10347/23948
spa
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
oai:minerva.usc.es:10347/265562021-07-08T02:02:39Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2021-07-07T11:55:21Z
urn:hdl:10347/26556
Sistema de pregunta-respuesta basado en la aplicación de técnicas de anotación semántica en canales médicos de Youtube
Rama Maneiro, Efrén
Lama Penín, Manuel (dir.)
Vidal Aguiar, Juan Carlos
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Sistemas de pregunta-respuesta
Recuperación de información
Medicina
Anotación semántica
Canales médicos
Youtube
Traballo Fin de Grao en Enxeñaría Informática. Curso 2017-2018
En este Trabajo Fin de Grado (TFG) se propone la implementación de un sistema de pregunta-repuesta (más conocido en inglés por Question-Answering) que permita resolver las dudas de los pacientes a través de vídeos de tal manera que a la consulta en lenguaje natural de un usuario el sistema ofrezca un vídeo que trate su pregunta. Como biblioteca de vídeos se elige la plataforma Youtube por poseer una cantidad de contenido multimedia más que suficiente asociada a temas médicos. El sistema de pregunta-respuesta se construirá sobre un motor de búsqueda que combina técnicas de recuperación de la información con técnicas de anotación semántica. Dicho motor será capaz de evaluar el grado de adecuación de la consulta del usuario a los vídeos almacenados en el sistema. El sistema funcionará sobre canales específicos y fiables de la biblioteca de vídeos de Youtube. De cada vídeo se recuperan tanto los metadatos como los subtítulos asociados a los mismos. Sin embargo, únicamente se utilizarán para el proceso de anotación los subtítulos puesto que constituyen la fuente más fiable para conocer el contenido semántico del vídeo. La anotación se realizará a través del anotador semántico ADEGA que utilizará una base de conocimiento (Know- ledge Base) para enlazar los términos relevantes identificados en los subtítulos con las entidades de la base de conocimiento obteniendo así un grafo. La base seleccionada en el proyecto es MeSH que posee una gran cantidad de información sobre temas específicos de medicina. Las preguntas al sistema serán realizadas en lenguaje natural por lo que deberán ser procesadas. Para ello se utilizará también el anotador semántico ADEGA por incorporar ya técnicas de procesamiento de lenguaje natural.
2021-07-07T11:55:21Z
2021-07-07T11:55:21Z
2018-07
bachelor thesis
http://hdl.handle.net/10347/26556
spa
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
oai:minerva.usc.es:10347/178502022-02-10T13:45:02Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2018-11-27T12:34:09Z
urn:hdl:10347/17850
FaceSampler: Selección automática de mostras do usuario para un sistema non colaborativo de verificación de rostros
Estévez Casado, Fernando
Pardo López, Xosé M. (dir.)
Iglesias Rodríguez, Roberto
Universidade de Santiago de Compostela. Departamento de Electrónica e Computación
recoñecemento facial
dispositivos móbiles
software
Traballo de Fin de grao en Enxeñaría Informática
Usualmente, nun sistema de reco~necemento facial com un, t omase unha imaxe do
rostro do individuo e proc esase para obter os seus puntos caracter sticos. Logo,
contr astase esta informaci on cun modelo dese suxeito, o que permite clasi car a
cara como pertencente a persoa ou non. Para obter dito modelo, sen embargo,
prec sase dispor dun n umero su ciente de mostras de adestramento da cara do
individuo, que permitan constru r unha codi caci on do rostro o m ais robusta e
discriminante posible. Esta e a raz on pola que se foron creando nos ultimos anos
grandes bancos de datos de imaxes anotadas de acceso p ublico como LFW [2],
FDDB [3] ou YTF [4]. Sen embargo, s o se constru ron uns poucos bancos de datos
de acceso p ublico para o reco~necemento biom etrico no ambito dos dispositivos
m obiles, como MOBIO [5] ou o de PASC [6], o que impediu o avance nesta li~na.
Pero, o que e peor, as imaxes provintes deste tipo de bancos soen estar moi
nesgadas, isto e, existen diferenzas signi cativas entre elas.
A captaci on de imaxes mediante c amaras en dispositivos m obiles est a suxeita
a caracter sticas espec cas non s o a nivel de sensores (escala, resoluci on, etc.),
sen on tam en relacionadas coa forma de usar tales dispositivos (orientaci on, expresi
on, iluminaci on, etc.). Todo isto esixe que, para acadar o mellor rendemento,
se deba dispor de mostras de caras para a aprendizaxe espec cas do contexto.
Neces tase, por en, unha ferramenta que poida ser instalada polo individuo no seu
m obil e que o \acompa~ne" no seu d a a d a. Esta ferramenta debe traballar sen a
colaboraci on do suxeito, pero debe saber cando capturar imaxes para obter boas
mostras do seu rostro. Para elo, compre que se axude da informaci on relativa
ao estado do dispositivo: orientaci on, iluminaci on ambiental, manipulaci on por
parte do usuario, etc.
A trav es deste traballo pret endese apoiar esta li~na de investigaci on, en particular
no relativo a aprendizaxe autom atica (no propio dispositivo m obil) para a captaci
on das caras dos usuarios. Pres entase as FaceSampler, unha aplicaci on Android
que implementa a proposta anterior e ten unha dobre utilidade. Por un lado, funciona
como ferramenta stand-alone que permite obter as mostras dos rostros dos
usuarios. Polo outro, nun futuro poder an aproveitarse as s uas funcionalidades
para traballar como mecanismo de selecci on de mostras de cada usuario durante
todo o tempo de vida dunha aplicaci on de veri caci on de caras.
2018-11-27T12:34:09Z
2018-11-27T12:34:09Z
2017-07
bachelor thesis
http://hdl.handle.net/10347/17850
glg
http://creativecommons.org/licenses/by-nc-nd/4.0/
open access
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:minerva.usc.es:10347/265602021-07-10T02:02:34Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2021-07-09T09:55:12Z
urn:hdl:10347/26560
Explotación del inventario toponímico gallego-portugués antiguo
Rey Presas, Andrea
Ríos Viqueira, José Ramón
Varela Barreiro, Francisco Xavier
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Inventario toponímico
Desarrollo de aplicaciones
Toponimia
Bases de datos
Gestión de datos
App
Traballo Fin de Grao en Enxeñaría Informática. Curso 2018-2019
El propósito de este Trabajo de Fin de Grado es el de, como su propio nombre indica, generar una aplicación para la explotación del inventario toponímico gallego-portugués. Para poder hacer esto se hará un estudio de la forma en la que se guardan los datos actualmente y se propondrá un nuevo modelo y se hará una interfaz de usuario para poder mostrar esta información con los filtros adecuados para facilitar la búsqueda. En este documento, se irán describiendo los pasos que se darán para poder hacer esto posible así como el contexto en el que se incluye y se realiza este trabajo, ya que actualmente el Instituto da Lingua Galega, que es la entidad que posee este inventario, tiene más proyectos abiertos sobre esta temática. Por este motivo, este proyecto no solo facilitará la búsqueda de información para fines educativos o de investigación, si no que puede ayudar a mejorar otros campos de trabajo actuales.
2021-07-09T09:55:12Z
2021-07-09T09:55:12Z
2019-06
bachelor thesis
http://hdl.handle.net/10347/26560
spa
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
oai:minerva.usc.es:10347/306502023-07-04T00:02:39Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2023-06-09T11:51:19Z
urn:hdl:10347/30650
Monitorización preditiva en procesos complexos non estruturados con información insuficiente
Gamallo Fernández, Pedro
Vidal Aguiar, Juan Carlos
Lama Penín, Manuel
Universidade de Santiago de Compostela. Departamento de Electrónica e Computación
A monitorización preditiva de procesos, rama de investigación en auxe nos últimos anos pola súa utilidade para empresas e institucións, permite predicir o comportamento futuro dunha instancia en execución dun proceso de negocio. Nos últimos anos, ás técnicas convencionais empregadas neste campo sumáronselle novas aproximacións baseadas en aprendizaxe profunda, área da intelixencia artificial que está gañando moita popularidade ultimamente. Destas aproximacións, as que mellores resultados están obtendo son aquelas baseadas en redes neuronais recurrentes, as cales permiten analizar correctamente a información histórica para realizar a predición correspondente. Recentemente, publicouse unha nova solución que emprega unha arquitectura GAN, un tipo de redes novel que está destacando no ámbito da xeración de imaxes e do procesamento da linguaxe natural polos bos resultados obtidos. Esta solución céntrase no problema da predición da seguinte actividade a executar e o momento no que sucederá. Neste traballo proponse unha nova aproximación baseada tamén neste tipo de arquitectura que pretende mellorar os resultados obtidos para a predición do seguinte tempo de execución. Como parte desta proposta explicarase o deseño interno da arquitectura e tamén o preprocesamento realizado sobre os datos de entrada para que estes sirvan de base á rede á hora de realizar as predicións.
2023-06-09T11:51:19Z
2023-06-09T11:51:19Z
2021-07
bachelor thesis
http://hdl.handle.net/10347/30650
glg
http://creativecommons.org/licenses/by-nc-nd/4.0/
open access
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:minerva.usc.es:10347/129962020-09-09T07:56:14Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2015-04-14T11:42:12Z
urn:hdl:10347/12996
Desenvolvemento dun entorno interactivo de baixo custo para a animación de personaxes utilizando dispositivos de captura de movemento sen marcas
Noya Noya, Roberto
Félix Lamas, Paulo
Carreira Nouche, María José
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Tratamento de imaxes
Animacións
Traballo Fin de Grao en Enxeñaría Informática. Curso 2013-2014
Nos inicios do cinema de debuxos animados, a partires de 1920, os encargados
de darlle vida ás personaxes animadas eran debuxantes. Estes profesionais eran
capaces de xerar unha animación debuxando, fotograma a fotograma, o movemento
que unha personaxe debía realizar (Fig. 1.1). Esta técnica foi amplamente utilizada
nos anos posteriores, dando lugar a múltiples producións, entre as que destacan as
da factoría Disney. A finais da década dos setenta xorden as primeiras técnicas para xerar imaxes ou gráficos por ordenador. Posteriormente, en 1981, aparece no filme Looker
(M. Crichton, 1981) a primeira personaxe xerada por ordenador, pero non é ata
1985 cando, na película Young Sherlock Holmes (B. Levinson, 1985) se mostra, por
primeira vez no cine, unha personaxe animada xerada integramente por ordenador
(Fig. 1.2). A partires dese momento, a maneira de entender o cine de animación e
os efectos especiais no cine de imaxe real cambia en consonancia coa evolución das
técnicas de xeración de imaxes e de animación por ordenador.
2015-04-14T11:42:12Z
2015-04-14T11:42:12Z
2014
bachelor thesis
http://hdl.handle.net/10347/12996
glg
open access
oai:minerva.usc.es:10347/265532022-02-11T12:29:19Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2021-07-07T07:17:08Z
urn:hdl:10347/26553
Desarrollo de un sistema de seguimiento extrahospitalario de pacientes con Enfermedad Inflamatoria Intestinal
Sánchez Barreiro, Cristina
Félix Lamas, Paulo
Rodríguez Graña, Jorge
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Aplicación móvil
Seguimiento de pacientes
Enfermedad intestinal
Enfermedad de Crohn
Colitis ulcerosa
Seguimiento clínico
App
Traballo Fin de Grao en Enxeñaría Informática. Curso 2015-2016
Los objetivos del presente trabajo son:
1. Diseñar e implementar una aplicación móvil que permita:
a) Obtener información sobre el estado de salud del paciente, en base a
indicadores médicos establecidos, a través de la realización de cuestionarios.
b) Obtener información sobre la adherencia del paciente al tratamiento,
a través de cuestionarios.
2. Implementar una base de datos donde se almacenen los datos de evolución
de los pacientes.
3. Diseñar una aplicación web que permita a los facultativos:
a) Diseñar nuevos cuestionarios.
b) Visualizar el estado de los pacientes.
c) Visualizar la evolución de los pacientes en forma de gráfi ca.
Lo que se pretende es la creación de una aplicación dinámica, que dé libertad
a los facultativos a la hora de crear nuevos cuestionarios, en lugar de tener que
depender del equipo de desarrollo para tal efecto. Se desea, además, construir la
aplicación de tal forma que pueda ser extensible a nuevos tipos de cuestionarios
(calidad de vida, vacunación, tabaquismo, etc) o patologías, tan sólo realizando
modi ficaciones en la base de datos, sin necesidad de realizar modifi caciones en el
código de la aplicación.
Por otra parte, también se permite al facultativo asociar los cuestionarios no
sólo a una patología, sino también a un patrón concreto de la misma, lo que
proporciona un seguimiento individualizado de los pacientes, teniendo en cuenta
las particularidades de su patología.
De este modo, al permitir al facultativo consultar los datos relativos a los
cuestionarios respondidos, se eliminarán aquellas consultas cuyo único propósito
sea la realización de cuestionarios, por lo que el paciente tan sólo tendrá que acudir
a revisiones o a pruebas clínicas tales como analíticas, ecografías, endoscopias,
etc. lo que ayuda a reducir la carga del sistema.
2021-07-07T07:17:08Z
2021-07-07T07:17:08Z
2016-07
bachelor thesis
http://hdl.handle.net/10347/26553
spa
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
oai:minerva.usc.es:10347/265482021-07-07T02:02:39Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2021-07-06T08:23:40Z
urn:hdl:10347/26548
Rexistrado de imaxes hiperespectrais baseado na transformada rápida de Fourier
Ordóñez Iglesias, Álvaro
Argüello Pedreira, Francisco
Blanco Heras, Dora
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Imaxe hiperespectral
Transformada Rápida de Fourier
Rexistrado de imaxes
Traballo Fin de Grao en Enxeñaría Informática. Curso 2014-2015
O proxecto centrarase no estudo de diferentes algoritmos xa existentes para rexistro de imaxes RGB que están baseados na transformada rápida de Fourier. A raíz dese estudo seleccionaranse os máis prometedores para desenvolvelos e analizar diferentes posibilidades de aplicación destes algoritmos ás imaxes hiperespectrais, pois a súa aplicación non é directa. Investigarase tamén sobre diferentes métodos de extracción de características das imaxes hiperespectrais para así poder reducir a súa dimensionalidade e quedarnos coa información máis relevante sobre a que se realizará o rexistrado. Os algoritmos desenvolvidos serán capaces de realizar o rexistrado de dúas imaxes hiperespectrais do mesmo obxecto ou localización, facendo corresponder os diferentes puntos mediante o cálculo do ángulo de rotación, factor de escala e translación dunha imaxe respecto da outra. Estes resultados deberán ser amosados tanto numéricamente como xerar a imaxe resultante do proceso. Traballarase sobre diferentes posibilidades de aplicación destas técnicas sobre diferentes versións do algoritmo. Realizaranse numerosas probas e modificacións co fin de conseguir un bo método de rexistrado. Concluírase o traballo cunha análise dos resultados obtidos.
2021-07-06T08:23:40Z
2021-07-06T08:23:40Z
2015-07
bachelor thesis
http://hdl.handle.net/10347/26548
glg
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
oai:minerva.usc.es:10347/296012022-12-17T03:02:50Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2022-12-16T07:59:48Z
urn:hdl:10347/29601
Tracking de objetos utilizando información de distractores
Bendaña Gómez, Manuel
Mucientes Molina, Manuel
Vaquero, Lorenzo
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Tracker
Distractor
Seguimiento de objetos
Traballo Fin de Grao en Enxeñaría Informática. Curso 2021-2022
El problema del seguimiento de múltiples objetos en vídeo supone un desafío
hoy en día para el cual no dejan de aparecer numerosas propuestas de soluciones.
Estos sistemas normalmente están formados por tres elementos: un detector, un
tracker y un algoritmo de asociación de datos que combina la información de
los dos primeros. En este trabajo, se estudia la viabilidad de emplear, como
tracker dentro de un sistema MOT, el sistema de seguimiento de un objeto en
vídeo SiamRPN++, para el cual se analiza cómo influye la presencia de objetos
cercanos al de interés que puedan actuar de distractores y confundir al sistema.
Se ha observado que, en la mayor parte de casos, cuando hay un distractor muy
cercano, el sistema tiende a producir predicciones erróneas.
Así, en este trabajo se proponen diversas mejoras para ayudar a resolver ese
problema. Dichas mejoras pasan por integrar la información de dichos distractores
en el algoritmo de seguimiento tratando de combinarlos en tiempo de inferencia o
modificando la arquitectura de la red, lo que requiere de entrenar las partes modificadas. Los experimentos nos muestran que esta última alternativa nos permite
mejorar en general los resultados con diferentes propuestas.
2022-12-16T07:59:48Z
2022-12-16T07:59:48Z
2022-06
bachelor thesis
http://hdl.handle.net/10347/29601
spa
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
oai:minerva.usc.es:10347/265582021-07-09T02:02:46Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2021-07-08T08:32:17Z
urn:hdl:10347/26558
Improvements in IDS: adding functionality to Wazuh
Gómez Vidal, Andrés Santiago
Cariñena Amigo, María Purificación
Tarascó Acuña, Andrés
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Cybersecurity
Improve security
Detect intrusion
Intrusion Prevention System
IPS
Intrusion Detection System
IDS
Traballo Fin de Grao en Enxeñaría Informática. Curso 2018-2019
Cybersecurity nowadays is very complex: there are many sub-fi elds and expert
tools and it could be argued that it is impossible to guarantee that any system is
totally safe. In this project we put ourselves in the shoes of a system administrator
for an enterprise, that wants to improve the security by detecting intrusions
in the servers he works on. This is key to decide which technologies and tools we
choose in this project.
2021-07-08T08:32:17Z
2021-07-08T08:32:17Z
2019-07
bachelor thesis
http://hdl.handle.net/10347/26558
eng
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
oai:minerva.usc.es:10347/297432023-01-10T09:06:14Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2023-01-04T10:45:00Z
urn:hdl:10347/29743
Mecanismos de atención en aprendizaxe profunda para monitorización preditiva en minaría de procesos
Monteagudo Lago, Pablo
Vidal Aguiar, Juan Carlos
Lama Penín, Manuel
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Minaría de procesos
Monitorización preditiva de procesos
A minaría de procesos pon o seu foco en extraer coñecemento a partir dos rexistros de eventos, que conteñen información relativa a diferentes instancias pasadas dun proceso. Non obstante, moitas das metoloxías propostas para isto están fortemente ligadas ao conxunto de datos concreto baixo estudo, o que dificulta a súa xeralización. Fronte a isto, a aprendizaxe profunda proporciona un conxunto de algoritmos de aprendizaxe automático
que tratan de atopar abstraccións de alto nivel sobre os datos de entrada. Estas técnicas permitiron acadar melloras significativas no estado de arte en tarefas como a detección de obxectos, recoñecemento de voz ou tradución de textos.
Consecuentemente, moitos autores adaptaron diferentes arquitecturas de
aprendizaxe profundo para afrontar o problema da monitorización preditiva. Así, mediante o emprego de redes neuronais recurrentes, lograron mellorar significativamente os resultados obtidos mediante técnicas máis tradicionais. Non obstante, no problema da predición do sufixo dunha traza incompleta, isto é, o conxunto de actividades que seguirán, previsiblemente, a unha instancia dun proceso a partir dun punto concreto da súa execución, os resultados acadados ata o momento semellan prometer un importante marxe de mellora.
Polo tanto, no presente Traballo de Fin de Grao, estúdanse as limitacións das arquitecturas propostas para afrontar este problema e preséntase unha arquitectura que, mediante a incorporación do mecanismo de atención, afronta as problemáticas identificadas nas aproximacións do estado do arte para a predición do sufixo, avaliando esta sobre un onxunto de rexistros de eventos ampliamente usado pola comunidade científica no contexto da minaría de procesos.
2023-01-04T10:45:00Z
2023-01-04T10:45:00Z
2022-07
bachelor thesis
http://hdl.handle.net/10347/29743
glg
http://creativecommons.org/licenses/by-nc-nd/4.0/
open access
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:minerva.usc.es:10347/265592021-07-10T02:02:32Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2021-07-09T09:39:56Z
urn:hdl:10347/26559
Herramienta web para la gestión de informes automáticos
Montero Castelao, Daniel
Lama Penín, Manuel (dir.)
Vidal Aguiar, Juan Carlos
Gallego Fontenla, Victor José
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Informe automático
Generación de informes
Análisis de datos
Traballo Fin de Grao en Enxeñaría Informática. Curso 2018-2019
La toma de decisiones bien informada y a tiempo es vital para cualquier organización, independientemente del nivel ejecutivo y de las plataformas, aplicaciones o infraestructuras que se utilicen. Los informes son una de las principales fuentes utilizadas para fundamentar estas decisiones. Sin embargo, su generación sigue siendo, a día de hoy, un proceso costoso y, en la mayoría de los casos, completamente o parcialmente manual. Además, la gran cantidad de datos manejados en estos informes hace que, en la actualidad, sea más necesario disponer de herramientas que permitan generar de forma automática informes. Muchas aplicaciones o sistemas que se dedican a la generación de informes quedan obsoletos o presentan dificultades de ampliación o escalabilidad al estar construidos de forma monolítica o situacional, de modo que solo generan un tipo de informe o un conjunto pequeño de ellos cuya estructura e información no cambia. Esto último, provoca que no se puedan adaptar con la flexibilidad suficiente a los problemas anteriormente descritos lo que suele conllevar implementaciones adicionales del sistema. En este trabajo fin de grado (TFG) se propondrá una solución genérica a lo anterior, de forma que dado un modelo de datos se puedan construir infinitas representaciones de información y que estas sean fácilmente alterables, tanto para añadir más datos, quitarlos o para cambiar la forma de mostrar la información.
2021-07-09T09:39:56Z
2021-07-09T09:39:56Z
2019-07
bachelor thesis
http://hdl.handle.net/10347/26559
spa
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
oai:minerva.usc.es:10347/239352021-01-09T03:05:06Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2020-12-11T10:53:56Z
urn:hdl:10347/23935
Ataques adversarios en una red neuronal de clasificación de señales de trafico
Fariña Mallón, Jairo
Mucientes Molina, Manuel
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Inteligencia artificial
Redes neuronales
Señales de tráfico
Traballo Fin de Grao en Enxeñaría Informática. Curso 2019-2020
En este trabajo se pretenden poner de mani esto las vulnerabilidades que
tienen hoy en dia las redes neuronales profundas con la fi nalidad de que se deje de
confi ar ciegamente en ellas para determinadas actividades como reconocimiento
facial en un aeropuerto o detección de señales de trafi co por cámara. A lo largo
de la memoria se expondrán diferentes métodos para la generación de ejemplos
adversarios en redes de detección y clasi cación de imágenes especifi cando las
similitudes y diferencias entre ellos para acabar extrayendo conclusiones y, aunque
sea difícil, métodos de defensa existentes y por explorar contra estos algoritmos.
2020-12-11T10:53:56Z
2020-12-11T10:53:56Z
2020-07
bachelor thesis
http://hdl.handle.net/10347/23935
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
open access
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:minerva.usc.es:10347/265522021-07-07T02:02:41Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2021-07-06T12:00:54Z
urn:hdl:10347/26552
Análisis de sentimiento de términos mediante la recuperación y procesamiento de publicaciones digitales en tiempo real con tecnologías Big Data
Martínez Castaño, Rodrigo
Pichel Campos, Juan Carlos
Gamallo Otero, Pablo
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Big Data
LPA
Lista de Procesamiento Automático
Procesamiento de datos
Análisis de datos
Análisis de sentimiento
Cálculo de sentimiento
Traballo Fin de Grao en Enxeñaría Informática. Curso 2015-2016
El objetivo principal del proyecto consiste en el desarrollo de un sistema software
que permita la obtención automática de grandes cantidades de publicaciones digitales
y el procesamiento de los sentimientos asociados a términos variables mediante el
uso de módulos PLN integrados en tecnologías Big Data en tiempo real. Se podrán
consultar resultados sobre términos arbitrarios. Además, una serie de términos serán
procesados de forma periódica y sin intervención para su consulta rápida. Esta lista
se denomina Lista de Procesamiento Automático (LPA).
2021-07-06T12:00:54Z
2021-07-06T12:00:54Z
2016-07
bachelor thesis
http://hdl.handle.net/10347/26552
spa
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
oai:minerva.usc.es:10347/265542021-07-08T02:02:38Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2021-07-07T11:00:14Z
urn:hdl:10347/26554
Mobile application to enhance refugees integration in Greece
Campos Rodríguez, David
Varela-Pet, José
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Migration
Refugees
Asylum
Integration
Inmigration
Mobile application
API
Traballo Fin de Grao en Enxeñaría Informática. Curso 2017-2018
In the past years, Europe has been facing a massive increase in the immigration affluence,
caused partially (but not exclusively) by the outbreak of the war in Syria. More than
three hundred sixty thousand migrants risked their life to get to Europe in 2016 and
more than one thousand had drowned in the Mediterranean at July 3, 2018, according to
UNHCR. One of the most common ways for people to arrive is through the eastern
Mediterranean, refugees coming mostly from Syria make their way along Turkey and
cross the sea to Greece. Although applying for asylum can be a lengthy procedure, many applications are been received, many more than the countries are accepting so far. In
2015, EU countries offered asylum to 292,540 refugees, in contrast with the more than a
million ones who applied for it on the same year. As indicated in the presentation of the UNINTEGRA project (further explanation later), more than fifty thousand refugees and asylum appliers are blocked in Greece and live in precarious conditions. In September 2017, the European relocation program of two years ended. As UNHCR reports, only a few refugees are able to leave Greece and move to a third country. The long time living in refugee camps or in irregular places have affected negatively these refugees in social and psychological terms. Despite of the efforts of the Greek and international authorities, the projects of the NGOs and the volunteers, refugees do not have complete access to the basic social and health services yet. There is a clear need of innovative projects to help refugees to get back into an active life, looking for a social integration and inclusion and putting special attention to special necessities like LGTB people, children in risk or mothers which are alone with kids. It is because of this that the University of Santiago de Compostela (Spain) leads, since 2017, the project UNINTEGRA, in collaboration with the National and Kapodistrian University of Athens (Greece), Universidade do Minho (Portugal), Fundació Acsar (Spain), Fundació Universitària Balmes (Spain) and Concello de Santiago de Compostela. The UNINTEGRA project is also co-funded by the Asylum, Migration and Integration Fund (AMIF) of the European Commission. This project has the main aim to intervene in the migration process by providing people in refugee sites and centres with the necessary resources to empower them, encouraging their participation in the host community. The duration of the project is 24 months and its period of implementation runs from 1st December 2017 to 30th November 2019, and it is divided in six work packages which affect different areas inside the general objectives. The project this document treats about corresponds to the fourth work package: the App4Refs application. This working package is led by the Fundació Acsar and counts with the collaboration of the Department of Electronics and Computer Science in the University of Santiago de Compostela, who offered it as a final project.
2021-07-07T11:00:14Z
2021-07-07T11:00:14Z
2018-07
bachelor thesis
http://hdl.handle.net/10347/26554
eng
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
oai:minerva.usc.es:10347/310212023-10-11T00:03:12Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2023-10-10T10:47:58Z
urn:hdl:10347/31021
Tradución automática neuronal para o galego baseada en modelos multilingües
Rodríguez Fernández, Pablo
Pichel Campos, Juan Carlos
Pichel Campos, José Ramón
Gamallo Otero, Pablo
Universidade de Santiago de Compostela. Departamento de Electrónica e Computación
Tradución automática
Tradución multilingüe
Lingua galega
O campo da tradución está a vivir unha revolución nos últimos anos grazas á inclusión da intelixencia artificial. Continuamente aparecen novos modelos capaces de traducir as linguas máis faladas do mundo entre si, acadando nalgunhas áreas resultados similares ás traducións feitas por humanos. Porén, isto provoca unha situación de desvantaxe naquelas linguas cun número de falantes reducido, que normalmente se exclúen destes sistemas, impedindo a moitas persoas empregar a súa lingua materna para acceder as últimas tecnoloxías lingüísticas, sendo o galego unha das linguas nas que se dá esta situación.
Neste traballo propónse especializar un modelo de tradución multilingüe, capaz de traballar con vinte e cinco linguas diferentes, para que sexa capaz de realizar traducións do inglés ao galego, sendo esta última lingua descoñecida polo modelo previamente. Con esta fin explicaranse todas as etapas precisas para chegar a el, dende a obtención de textos e o seu procesamento, ata o adestramento e a xeración de traducións. Finalmente, compararanse os resultados acadados coas alternativas existentes ata o momento para a tradución deste par de linguas.
2023-10-10T10:47:58Z
2023-10-10T10:47:58Z
2023-06
bachelor thesis
http://hdl.handle.net/10347/31021
glg
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
oai:minerva.usc.es:10347/178512020-10-13T11:53:44Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2018-11-27T12:39:49Z
urn:hdl:10347/17851
SenSiMet:Métricas de similitude entre oracións
Fontenla Seco, Yago
Bugarín Diz, Alberto José
Pereira Fariña, Martín
Universidade de Santiago de Compostela. Departamento de Electrónica e Computación
linguística computacional
Las interacciones entre sistemas inform aticos y seres humanos a trav es de nuestro
propio lenguaje de nen el campo de estudio en el que se centra la Ling u stica
Computacional. El gran objetivo de esta disciplina es lograr comunicaciones e caces
y computacionalmente e cientes entre ser humano y m aquina. Para ello es necesario
que la m aquina comprenda el lenguaje humano mediante el Procesamiento de Lenguaje
Natural (PLN) pero tambi en que los sistemas sean capaces de generar contenido
comprensible para un usuario no especializado, utilizando m etodos de la Generaci
on de Lenguaje Natural. Pero la Ling u stica Computacional no solo se enfoca a la
comprensi on del lenguaje, sino tambi en a aspectos del pensamiento humano y de la
organizaci on de la memoria. Conocidas aplicaciones del PLN son la veri caci on y
correcci on autom atica de textos, la traducci on autom atica, la recuperaci on de informaci
on, etc.
Una de las mayores di cultades que presenta el lenguaje natural para su procesamiento
computacional es la ambig uedad, dado que una palabra puede tener multitud
de signi cados. Abordar este problema requiere analizar la sem antica del lenguaje, y
uno de los m ultiples m etodos para hacerlo es a trav es de la teor a del campo sem antico
o sem antica l exica. Esta teor a postula que para comprender una palabra es necesario
tener en cuenta todo el conjunto de palabras con el que se relaciona sem anticamente.
A nivel de oraciones y p arrafos, podr amos decir que la relaci on equivalente a la
sinonimia es la par afrasis, que es de nida por la RAE como: \Frase que, imitando en
su estructura otra conocida, se formula con palabras diferentes".
Esto ser a el tema central sobre el que girar a todo el trabajo: la similitud entre
sentencias. El c alculo y an alisis de semejanza entre sentencias (o textos de mayor
longitud) nos permitir a el reconocimiento y estudio de par afrasis.
Posibles aplicaciones del an alisis de sentencias y detecci on de par afrasis pueden
ser, el an alisis de ensayos, discursos o debates, donde habitualmente se repiten las
mismas ideas expresadas de distintas formas o, mediante estos an alisis y medidas,
generar de forma autom atica textos con el mismo signi cado que uno dado.
2018-11-27T12:39:49Z
2018-11-27T12:39:49Z
2017-07
bachelor thesis
http://hdl.handle.net/10347/17851
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
open access
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:minerva.usc.es:10347/265612023-12-11T12:00:41Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2021-07-09T11:23:11Z
urn:hdl:10347/26561
Integración dunha plataforma de xestión de laboratorios co equipamento dos laboratorios de Televés Ladetel
Veiga Otero, Rosa Elena
Duro Liñares, Miguel
Taboada González, José Ángel
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
ISO 17025
Ladetel
Evaluación de laboratorios
Acreditación de laboratorios
Xestión de laboratorios
Traballo Fin de Grao en Enxeñaría Informática. Curso 2018-2019
Ladetel é un laboratorio pertencente á Corporación Televés, cuxa actividade consiste fundamentalmente na realización de ensaios para o marcado CE de aparatos electrónicos, tanto de clientes internos como externos. Como parte do "Programa Industrias do Futuro 4.0" da Xunta de Galicia, Televés está a desenvolver o seu proxecto Corp4Future, contexto no que o seu laboratorio de ensaios Ladetel enmarca unha actividade de implantación dun sistema de calidade conforme á norma ISO 17025. A norma ISO 17025 contén os requisitos que teñen que cumprir os laboratorios de ensaio e calibración, no caso de que desexen demostrar que posúen un sistema de xestión, son técnicamente competentes e son capaces de xerar resultados tecnicamente válidos. O recoñecemento formal que recibe un laboratorio cun sistema de xestión acorde á norma ISO 17025 é a acreditación. En Europa a acreditación está regulada polo Regulamento (CE) nº 765/2009, no que se fixa un modelo de acreditación baseado na existencia dun único Organismo Nacional de Acreditación en cada Estado membro, formalmente designado e con potestade pública para levar a cabo a súa función. Deste xeito, un laboratorio acreditado garante que a calidade dos seus ensaios e servizos é avaliada por un organismo competente e cualificado. En España, este organismo é a Entidade Nacional de Acreditación (ENAC). A norma ISO 17025 establece unha serie de requisitos de xestión similares a outras normas de calidade tipo ISO 9001, pero a maiores esixe outra serie de requisitos técnicos, totalmente específicos e orientados aos laboratorios de ensaio e calibración. Ademais disto, a ENAC establece os seus propios requisitos.
2021-07-09T11:23:11Z
2021-07-09T11:23:11Z
2019-09
bachelor thesis
http://hdl.handle.net/10347/26561
glg
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
oai:minerva.usc.es:10347/239332021-01-09T03:06:04Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2020-12-11T10:28:17Z
urn:hdl:10347/23933
Auditoría informática dos sistemas do Instituto da Lingua Galega
Cutrín Garabal, Jose Antonio
Cotos Yáñez, José Manuel
Regueira Fernández, Xosé Luís
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Auditoría informática
Instituto da Lingua Galega
Auditoría de sistemas
Auditoría de bases de datos
Auditoría de aplicacións
Traballo Fin de Grao en Enxeñaría Informática. Curso 2019-2020
O obxectivo principal que se pretende acadar coa realización deste traballo e o desenvolvemento dunha auditoría informática dos sistemas e aplicacións que
pos ue o Instituto da Lingua Galega. Este obxectivo concretarase en tres particulares:
Auditor a de sistemas, que consistir a nunha reestruturaci on de servidores
segundo a proposta de soluci on, ademais de actualizar o sistema operativo
a ultima versi on dispo~nible e compatible coas aplicaci ons do Instituto da
Lingua Galega.
Auditor a de bases de datos, na que se concentrar an os servidores de bases
de datos no m nimo n umero posible. Farase a actualizaci on dos xestores
de bases de datos a ultima versi on dispo~nible e realizaranse as migraci ons
necesarias das bases de datos aloxadas noutros servidores e/ou xestores de
bases de datos.
Auditor a de aplicaci ons, que consistir a na migraci on das aplicaci ons ao
novos servidores, unha vez establecidas as novas arquitecturas de sistemas
e de bases de datos. Tam en se proceder a a con gurar as aplicaci ons co
novo xestor de base de datos. Esta auditor a incl ue refactorizaci ons en d uas
aplicaci ons do Instituto da Lingua Galega.
Como consecuencia destes obxectivos conseguirase unha optimizaci on dos recursos
computacionais do Instituto da Lingua Galega.
2020-12-11T10:28:17Z
2020-12-11T10:28:17Z
2020-07
bachelor thesis
http://hdl.handle.net/10347/23933
glg
http://creativecommons.org/licenses/by-nc-nd/4.0/
open access
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:minerva.usc.es:10347/310232023-10-11T00:03:13Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2023-10-10T11:32:10Z
urn:hdl:10347/31023
Aplicación móvil Android de ayuda en la Enfermedad de Crohn
Ruibal Ojea, Alberto
Félix Lamas, Paulo
Universidade de Santiago de Compostela. Departamento de Electrónica e Computación
Aplicación móvil
Enfermedad de Crohn
En este Trabajo de Fin de Grado se pretende abordar el desarrollo de una aplicación móvil para la plataforma Android que asista a los enfermos de Crohn mediante el registro y visualización de síntomas y alimentación, la detección temprana de un brote de la enfermedad y el acceso a recursos médicos de referencia de una forma centralizada desde la aplicación a desarrollar
2023-10-10T11:32:10Z
2023-10-10T11:32:10Z
2023-02
bachelor thesis
http://hdl.handle.net/10347/31023
spa
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
oai:minerva.usc.es:10347/130032020-09-07T10:16:10Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2015-04-14T12:37:27Z
urn:hdl:10347/13003
Clasifcación de imágenes de satélite de alta dimensionalidad
Suárez Garea, Jorge Alberto
Argüello Pedreira, Francisco
Blanco Heras, Dora
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Clasificación imágenes
Clasificación imaxes
Imágenes hiperespectrales
Imaxes hiperespectrais
Imágenes de satélite
Imaxes de satélite
Aplicaciones informáticas
Aplicacións informáticas
Traballo Fín de Grao en Enxeñaría Informática. Curso 2013-2014
En 1972 la NASA(National Aeronautics and Space Administration) ponía en órbita el Landsat 1, originalmente llamado "Earth Resources Technology Satellite 1", comenzando así la era de la Teledetección. (En 2013, se lanzaba el Landsat 8).
Existen diversos campos de aplicación de las imágenes hiperespectrales correspondientes a teledetección como puede ser el análisis de la cobertura terrestre, con el objetivo de clasificar las distintas zonas de la imagen, o el estudio de los océanos para poder encontrar las relaciones entre la profundidad del agua, el tipo de fondo y otras propiedades ópticas del agua.
La clasicación consiste en la asignación de una determinada etiqueta de clase
(tierra, agua, tejado, ...) a cada píxel, y constituye uno de los campos más activos
de la teledetección. Las técnicas de teledetección se enfrentan a varios problemas debidos a la escasez de muestras etiquetadas y a la alta dimensionalidad de las imágenes, lo que dificulta el proceso de clasicación.
Debido al gran avance que se está llevando a cabo en el campo de los sensores,
cada vez disponemos de más datos por imagen, lo que obliga a mejorar las
técnicas de clasicación de las imágenes hiperespectrales, imágenes en las que se
dispone de cientos de valores de reflectancia por cada píxel.
Por otra parte, y a pesar del avance de los sensores, la resolución de los mismos
no es lo su ficientemente alta como para que en un único píxel se encuentre
presente solamente un material.
Con este trabajo se pretende desarrollar una aplicaci ón en el cual se puedan
analizar las caracter ísticas de las im ágenes hiperespectrales, aplicar distintas técnicas de clasicación de imágenes multidimensionales y comparar los resultados de las distintas configuraciones.Utilizando la metodología Scrum desarrollaremos una aplicación fácil, intuitiva y útil que permita al usuario trabajar con imágenes hiperespectrales y configurar distintos escenarios con el fin de obtener una buena clasicación
2015-04-14T12:37:27Z
2015-04-14T12:37:27Z
2014
bachelor thesis
http://hdl.handle.net/10347/13003
spa
open access
oai:minerva.usc.es:10347/265302021-07-06T08:26:27Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2021-06-28T07:54:38Z
urn:hdl:10347/26530
Sistema de tracking visual de objetos mediante técnicas de aprendizaje profundo
Vaquero Otal, Lorenzo
Mucientes, Manuel
Brea, Victor
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Tracker
Visión por computador
Tracking visual
Computación
Traballo Fin de Grao en Enxeñaría Informática. Curso 2017-2018
La identificación de los elementos que conforman una imagen resulta una tarea sencilla para los seres humanos. A diario, somos capaces de detectar los objetos que se encuentran a nuestro alrededor y de percibirlos de manera física, atribuyéndoles un significado a los fotones que llegan a nuestras retinas. Esta tarea que a las personas nos resulta inmediata, posee en realidad una enorme complejidad, especialmente en la última etapa de todas, la de la interpretación. Es por este motivo que este proceso tan complicado de emular por una máquina ha sido estudiado profundamente durante las últimas décadas. Con la finalidad de dotar a un sistema informático con la capacidad de adquirir, procesar, analizar y comprender las imágenes del mundo real para producir información numérica o simbólica que pueda ser tratada, surge la disciplina científica de la visión por computador. Existen numerosas aplicaciones dentro del ámbito de la visión por computador, de entre las cuales es posible destacar la del seguimiento de objetos, núcleo del Trabajo Final de Grado (TFG) realizado. Este tracking visual de objetos es aplicado sobre un vídeo, y hace posible mantener la identidad de diferentes elementos detectados a lo largo de los fotogramas del mismo. Al mantener la identidad de todos los elementos detectados, mediante el tracking se hace posible no sólo conocer que regiones de una imagen se corresponden con un objeto (reconocimiento), sino incorporar una dimensión adicional, la del tiempo, para así detectar trayectorias, cambios de forma y comportamientos a lo largo de un vídeo. Esta mayor comprensión de lo captado en un vídeo hace posible que los sistemas informáticos realicen un gran número de tareas que antaño se consideraban impensables para una máquina. Desde labores rutinarias como el conteo de personas hasta tareas que requieran de una rigurosa precisión, como el seguimiento de vehículos desde UAV. Todas ellas son susceptibles de ser realizadas por un sistema informático con una gran velocidad, eficiencia y exactitud. De esta forma, este sería el punto en torno al cual gire el presente Trabajo Final de Grado, buscando desarrollar un sistema de tracking visual que facilite la automatización de procesos, y el desarrollo de aplicaciones integradas en tiempo real.
2021-06-28T07:54:38Z
2021-06-28T07:54:38Z
2018-07
bachelor thesis
http://hdl.handle.net/10347/26530
spa
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
oai:minerva.usc.es:10347/265342021-07-06T08:34:47Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2021-06-29T12:02:09Z
urn:hdl:10347/26534
Descubrimiento de patrones frecuentes en flujos de trabajo
Chapela de la Campa, David
Mucientes Molina, Manuel (dir.)
Lama Penín, Manuel (dir.)
Vázquez Barreiros, Borja
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Minería de grafos
Búsqueda de patrones
Grafos
Red de Petri
Traballo Fin de Grao en Enxeñaría Informática. Curso 2014-2015
Los grafos son estructuras de datos muy potentes que permiten representar, de forma gráfica, la unión o enlace entre diferentes entidades que mantienen algún tipo de interacción. Estas estructuras fueron inventadas en el siglo XVIII, y desde entonces han sido ampliamente utilizadas. Un tipo concreto de grafos son los grafos dirigidos, estos se caracterizan por poseer direcciones definidas en los arcos, lo que facilita el modelar flujos de ejecución en los que unos nodos deben preceder a otros. Con este tipo de estructuras se puede modelar desde las posibles secuencias de tareas efectuadas por clientes en un centro comercial, hasta el flujo de trabajo (workflow) propio de un proceso de negocio. En todos estos casos puede ser interesante conocer, dado un conjunto de ejecuciones, cuáles son las tareas que más se ejecutan, y en qué orden, con el fin de obtener información de interés en relación al proceso. Algunos ejemplos de lo que se podría hacer con esta información serían i) rediseñar la distribución del centro comercial para mejorar las ventas, ii) optimizar los procesos de negocio redistribuyendo las tareas según su frecuencia de ejecución, iii) y hasta descubrir el comportamiento más frecuente entre los alumnos de una asignatura, para poder modificar el diseño de la unidad educativa, mejorando así los resultados.
Aquí es donde entra en juego el objetivo del presente Trabajo Fin de Grado. A partir de un
registro de actividades (log), y un flujo de trabajo asociado a él, se obtienen los patrones frecuentes ofreciendo información que a priori no está al alcance de los usuarios. Debido a la escasez de aproximaciones que realicen esta minería de grafos, este proyecto plantea la implementación y mejora del algoritmo w-find, que introduce la base para la búsqueda de patrones frecuentes en grafos dirigidos con restricciones.
2021-06-29T12:02:09Z
2021-06-29T12:02:09Z
2015-07
bachelor thesis
http://hdl.handle.net/10347/26534
spa
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
oai:minerva.usc.es:10347/178522020-07-30T12:01:17Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2018-11-27T12:44:30Z
urn:hdl:10347/17852
Herramienta para la automatización, seguimiento y graficación de un test de intrusión
Pérez González, Eloy
Cariñena Amigo, María Purificación
Universidade de Santiago de Compostela. Departamento de Electrónica e Computación
software
intrusión
Active Directory
Hoy en d a es com un para las empresas contar con multitud de sistemas que
necesitan ser administrados en conjunto de una forma sencilla. Por ello lo habitual
es establecer un servicio de directorio, en la infraestructura de la compa~n a, que
almacene la informaci on de los usuarios y equipos y permita administrar los
privilegios de estos de forma centralizada.
Actualmente, el software de servicio de directorio m as ampliamente utilizado
es Active Directory de Microsoft, que permite gestionar los ordenadores y usuarios
de una red de m aquinas Windows.
Active Directory permite de nir entidades funcionales denominadas dominios
cuya informaci on es almacenada y gestionada desde un servidor o servidores denominados
Domain Controllers. La implantaci on de un servicio de Active Directory
permite gestionar los privilegios que sobre cada recurso tengan los usuarios de
dominio. Para ello, el enfoque m as com unmente utilizado es asignar los privilegios
a los grupos del dominio, de forma que una vez se a~nade un usuario a un
determinado grupo, este cuente con todos los permisos de los que dispone el grupo.
Por otro lado, se debe tener en cuenta que tambi en es posible para un grupo
ser miembro de otro grupo, de manera que los usuarios heredan los privilegios de
todos los grupos de los que son miembros, directa o transitivamente.
La asignaci on de privilegios permite de nir que relaciones de con anza que se
dan entre los usuarios y los diferentes recursos que se ofrecen en la infraestructura
administrada por Active Directory, como servicios y estaciones de trabajo.
Por tanto, los privilegios de un usuario permiten establecer en que m aquinas del
dominio, incluidos los Domain Controllers, puede este iniciar sesi on, de manera
interactiva o remota, y en cuales de ellas puede contar con permisos de administrador.
En consecuencia, en una red con un gran n umero de usuarios existen tambi en
un elevado n umero de relaciones de con anza, muchas de las cuales podr an ser
aprovechadas por un atacante para acceder a los sistemas cr ticos de la red, como
los Domain Controllers o servidores de bases de datos.
Por tanto para validar y evolucionar la seguridad de las redes de Active Directory,
es com un contratar a un auditor de seguridad para que realice un test
de intrusi on o pentest, en el cual el auditor simula ser un atacante. En estos test
al auditor se le es dado por lo general un equipo de trabajo sobre el cual es administrador
y se le pide que busque v as de elevaci on de privilegios dentro de la
red y formas de acceder a informaci on corporativa o a los sistemas cr ticos para
la infraestructura.
2018-11-27T12:44:30Z
2018-11-27T12:44:30Z
2017-02
bachelor thesis
http://hdl.handle.net/10347/17852
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
open access
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:minerva.usc.es:10347/265492022-02-11T12:32:41Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2021-07-06T08:53:21Z
urn:hdl:10347/26549
Sistema de procesado y análisis de Big Data en Smart Buildings
Fernández Fuentes, Xosé
Mera Pérez, David
Taboada González, José Ángel
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Procesamiento de datos
Big Data
Consulta de datos
Análisis de datos
Edificios inteligentes
Smart buildings
Traballo Fin de Grao en Enxeñaría Informática. Curso 2015-2016
En este proyecto se propone el despliegue de un sistema distribuido que sea
capaz de almacenar, procesar y analizar toda la información generada por los
sensores de un edifi cio inteligente. Dicho sistema deberá atender y dar respuesta
en tiempo real a las consultas generadas por los usuarios. Los resultados a las
consultas mostrarán una imagen global y actual del sistema por lo que éstos
deberán integrar tanto la información del histórico como la generada en tiempo
real.
2021-07-06T08:53:21Z
2021-07-06T08:53:21Z
2016-07
bachelor thesis
http://hdl.handle.net/10347/26549
spa
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
oai:minerva.usc.es:10347/265502021-07-07T02:02:40Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2021-07-06T09:50:24Z
urn:hdl:10347/26550
Procesamento analítico en liña de datos medioambientais en arquitecturas Big Data
Ferrón Lea, Diego
Ríos Viqueira, José Ramón
Fernández Pena, Anselmo Tomás
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Big Data
Análise de información
Toma de decisións
Análise de datos
Bases de datos
Traballo Fin de Grao en Enxeñaría Informática. Curso 2015-2016
A evolución das solucións Big Data nos últimos anos vén de ser exponencial, motivando
un novo enfoque respecto do tratamento de grandes cantidades de información que
non poden ser procesadas ou analizadas con ferramentas tradicionais. Ditas solucións
constitúen o fundamento dos modernos sistemas de apoio á toma de decisións (DSS) en
diversos dominios de aplicación, como por exemplo a análise do mercado levada a cabo
por unha aeroliña ou a monitorización e xestión do sistema de saúde dun territorio.
Entre eses dominios podemos destacar a análise de datos medioambientais, xerados
principalmente por sensores ou por software de modelado de datos, como poden ser as
medicións físicas realizadas por estacións meteorolóxicas ou as características medioambientais dun determinado espazo xeográfico. Neste eido podemos identificar
dous grandes tipos de datos: dunha banda existen mostraxes de propiedades específicas
sobre espazos multidimensionais, e doutra banda existen entidades que representan
propiedades específicas de obxectos que poden evolucionar ó longo do tempo.
As tecnoloxías dispoñibles na actualidade para a análise destes dous grandes tipos de
datos son os xestores de bases de datos relacionais (RDBMS) e un subgrupo de solucións
Big Data (por exemplo, bases de datos NoSQL e ecosistemas tipo Hadoop) para o caso
das entidades, e solucións ad-hoc sobre arquivos de arrays xunto con scientific array
data managers (por exemplo, SciDB ou Rasdaman) para o caso das mostraxes. Sen embargo, non existe no mercado ningunha tecnoloxía que posibilite a xestión integrada e uniforme de ambos tipos de datos. No eido destas preocupacións xorde esta proposta de traballo de fin de grao para a cal nos propoñemos como obxectivo principal a elaboración unha solución baseada en tecnoloxías Big Data para a análise integrada de datos de entidades e mostraxes no ámbito da avaliación do risco de incendio forestal.
2021-07-06T09:50:24Z
2021-07-06T09:50:24Z
2016-07
bachelor thesis
http://hdl.handle.net/10347/26550
glg
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
oai:minerva.usc.es:10347/265552021-07-08T02:02:38Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2021-07-07T11:20:59Z
urn:hdl:10347/26555
Interacción natural mediante Leap Motion: edición de modelos en 3D
Dobarro Peña, Pablo
Flores González, Julián
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Interacción natural
Interacción con ordenador
Leap Motion
Modelado 3D
Traballo Fin de Grao en Enxeñaría Informática. Curso 2017-2018
La interacción natural entre hombre y máquina ha tenido un especial interés
en los últimos años debido a la aparición de nuevos dispositivos tales como Kinect,
Wiimote o el mismo Leap Motion. El Leap Motion es un dispositivo que permite la interacción con el ordenador mediante las manos sin ningún tipo de marcador. El propio sistema realiza el seguimiento de las manos del usuario generando un modelo de las mismas y proporcionando información de las diferentes articulaciones que la componen. En este trabajo se pretende explorar las posibilidades de uso de este dispositivo en un espacio 3D para la edición y visualización de modelos complejos mediante interacción natural.
2021-07-07T11:20:59Z
2021-07-07T11:20:59Z
2018-02
bachelor thesis
http://hdl.handle.net/10347/26555
spa
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
oai:minerva.usc.es:10347/239372021-01-09T03:05:05Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2020-12-11T11:28:18Z
urn:hdl:10347/23937
Sistema para la reconstrucción de tomografías de impedancia eléctrica en tiempo real, basado en técnicas de Machine Learning
Aller Domínguez, Martín
Cotos Yáñez, José Manuel
Mera Pérez, David
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Tomografía
Impedancia eléctrica
Machine Learning
Electrical impedance tomography
Traballo Fin de Grao en Enxeñaría Informática. Curso 2019-2020
Las técnicas para obtener información sobre el interior de un cuerpo en dos
o tres dimensiones se conocen como tomografías. La más conocida es la Tomografía Axial Computerizada (TAC), mediante la cual se aplican rayos X sobre
un cuerpo, con el objetivo de generar imágenes transversales del interior de éste.
El uso de esta técnica conlleva la emisión de radiación ionizante, por lo que para
el empleo del TAC se necesita personal cuali ficado y entornos controlados con niveles
de seguridad elevados. Estos requerimientos suponen que la utilización del
TAC sea inviable en ciertos ámbitos industriales. Por esta razón, es interesante
analizar el empleo de técnicas alternativas que no presenten este problema, pudiendo
ser utilizadas con mayor facilidad. Una de estas técnicas se conoce como
Tomografía de Impedancia Eléctrica (EIT, por sus siglas en inglés), la cual
permite medir la conductividad eléctrica de cada uno de los puntos dentro del
cuerpo examinado, pudiendo inferir características y particularidades del interior
del cuerpo a través de las medidas obtenidas.
2020-12-11T11:28:18Z
2020-12-11T11:28:18Z
2020-11
bachelor thesis
http://hdl.handle.net/10347/23937
spa
http://creativecommons.org/licenses/by-nc-nd/4.0/
open access
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
oai:minerva.usc.es:10347/239502021-01-09T03:06:28Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2020-12-14T09:13:00Z
urn:hdl:10347/23950
IDALib: Desarrollo de una librería en Python para Image Data Augmentation
Rodríguez Vilas, Raquel
Carreira Nouche, María José
Vila Blanco, Nicolás
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Python
Image data augmentation
IDALib
Traballo Fin de Grao en Enxeñaría Informática. Curso 2019-2020
En esta memoria se refleja el trabajo realizado para la construcción de la librería en Python de image data augmentation IDALib. Como se detalla en esta memoria, la tarea de image data augmentation es un procedimiento asociado al auge de la inteligencia artificial y requerimientos de las redes neuronales artificiales, en concreto a aquellas que trabajan con imágenes y otros datos multidimensionales. El desarrollo de esta herramienta quiere ser un granito de arena más en la imparable evolución del mundo de la Inteligencia Artificial
2020-12-14T09:13:00Z
2020-12-14T09:13:00Z
2020-07
bachelor thesis
http://hdl.handle.net/10347/23950
spa
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
oai:minerva.usc.es:10347/310192024-03-12T01:02:41Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2023-10-10T09:48:12Z
urn:hdl:10347/31019
Deseño de EfficientNets para a clasificación de imaxes multiespectrais usando técnicas de aprendizaxe profunda
Vilela Pérez, Nicolás
Blanco Heras, Dora
Argüello Pedreira, Francisco Santiago
Goldar Dieste, Alvaro
Universidade de Santiago de Compostela. Departamento de Electrónica e Computación
Sensado remoto
Imaxes multiespectrais
Clasificación
Comparativa
Redes neuronais
Aprendizaxe profunda
EfficientNet
Neste traballo adaptáronse as EfficientNets ao problema de clasificación de imaxes multiespectrais, explorando distintas configuracións para descubrir así cales funcionan mellor. As observacións experimentais demostraron que algunhas arquitecturas específicas de EfficientNets obteñen precisións moi similares ás doutros esquemas de clasificación empregados neste problema de clasificación, como a rede residual, á vez que teñen menor custo computacional.
2023-10-10T09:48:12Z
2023-10-10T09:48:12Z
2023-07
bachelor thesis
http://hdl.handle.net/10347/31019
glg
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
oai:minerva.usc.es:10347/130042020-09-10T07:27:28Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2015-04-14T12:40:18Z
urn:hdl:10347/13004
Módulo de monitorización. Plataforma de interoperabilidad
Nogueiras Fernández, Sergio
Taboada González, José Ángel
Arias Jordán, Efrén
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Interoperabilidad
Administración electrónica
Interoperabilidade
Traballo Fin de Grao en Enxeñaría Informática. Curso 2013-2014
Las TIC son la principal herramienta para llevar a cabo la transformación de la Administración Pública. A través de las nuevas tecnologías nace la Administración electrónica lo cual supone un gran avance dentro de las Administraciones Públicas, permitiendo la prestación de servicios a
través de canales telemáticos así como el intercambio telemático de información entre administraciones. Con el fin de normalizar el intercambio de información y la seguridad en las relaciones electrónicas a nivel estatal, se definen el Esquema Nacional de Seguridad y el Esquema Nacional de Interoperabilidad. El proyecto que a continuación se presenta se basará en la construcción de un Módulo de
Monitorización para la Plataforma de Interoperabilidad. El Módulo de Monitorización deberá
permitir conocer el estado de la Plataforma de Interoperabilidad así como avisar ante posibles
incidentes que se pudieran producir.
2015-04-14T12:40:18Z
2015-04-14T12:40:18Z
2014
bachelor thesis
http://hdl.handle.net/10347/13004
spa
open access
oai:minerva.usc.es:10347/296032023-12-14T08:18:23Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2022-12-16T09:02:14Z
urn:hdl:10347/29603
Quanversa: Modelos de cuantificación borrosa aplicados a un agente conversacional
Canabal Juanatey, Mariña
Catalá Bolós, Alejandro
Bugarín Diz, Alberto José
Alonso Moral, José María
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Agente conversacional
Cuantificador lingüístico
Lenguaje
Traballo Fin de Grao en Enxeñaría Informática. Curso 2020-2021
Debido a la continua aparición de expresiones que incluyen cuantificadores lingüísticos en el lenguaje humano, es fundamental que un agente conversacional maneje correctamente el fenómeno de la cuantificación, aún en presencia de la vaguedad propia del lenguaje natural.
En este trabajo proponemos la construcción de Quanversa, un prototipo de agente conversacional diseñado para hacer recomendaciones según la información meteorológica disponible y que es capaz de manejar expresiones lingüísticas cuantificadas mediante modelos de cuantificación borrosa. Contextualizado en el ámbito de Quanversa, realizamos un estudio empírico orientado a poner en evidencia posibles inconsistencias que pueden producirse cuando utilizamos expresiones en lenguaje natural con cuantificadores imprecisos, y estas son evaluadas con modelos de cuantificación borrosa que incumplen
alguna de las propiedades de interés que se han definido en la bibliografía para dichos modelos. El estudio, basado en cuestionarios, adopta una perspectiva pragmática, en la que consideramos los efectos y el alcance de las propiedades de antonimia y efecto acumulativo en el modelo de cuantificación de Zadeh, frente a un segundo modelo propuesto que incluye las modificaciones imprescindibles para superar estos dos problemas. Los resultados obtenidos muestran que hay diferencias significativas dependiendo del modelo de cuantificación utilizado en cuanto a la percepción de la consistencia y la utilidad de las conversaciones mantenidas entre una persona usuaria y el agente conversacional, siendo recomendable adoptar el modelo de cuantificación modificado propuesto en este trabajo.
2022-12-16T09:02:14Z
2022-12-16T09:02:14Z
2021-06
bachelor thesis
http://hdl.handle.net/10347/29603
spa
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
oai:minerva.usc.es:10347/129832020-07-30T12:00:40Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2015-04-14T09:25:35Z
urn:hdl:10347/12983
Adaptación de la API FHScanHTTPCore para su integración con múltiples lenguajes de programación
Mallo Raposo, Oscar
Tarascó Acuña, Andrés
Cariñena Amigo, María Purificación
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
API
FHScanHTTPCore
Lenguaje de programación
Linguaxe de programación
Traballo Fin de Grao en Enxeñaría Informática. Curso 2012-2013
La problemática del software inseguro se ha convertido en uno de los principales retos
técnicos de la actualidad. El despliegue de aplicaciones expuestas a Internet sin la
implementación adecuada de controles de seguridad, s iguiendo una metodología de
desarrollo seguro supone un riesgo muy elevado para las empresas, especialmente
para aquellas cuyo modelo de negocio depende de la red de redes.
Con la revolución de las tecnologías de la información, las plataformas web se ha n
convertido en una de las herramientas fundamentales de las compañías para la
expansión de sus actividades económicas, desarrollando aplicaciones web o aplicativos
móviles que se comunican a través del protocolo de comunicaciones HTTP. El
despliegue de es te tipo de aplicaciones supone por lo tanto, que una gran cantidad de
activos clave para la organización se puedan ver afectados , ante una vulneración de la
seguridad. Consecuentemente el impacto asociado a la exposición de los activos afecta
a la actividad económica de una organización.
Existen distintos enfoques que permiten la evaluación de la seguridad de los sistemas
de información, sin embargo las auditorías técnicas de seguridad s e han convertido en
una de las opciones preferidas por parte de las e mpresas para reducir el riesgo de las
mismas ante ataques informáticos.
Para la realización de una auditoría de seguridad sobre entornos web es necesario
disponer de un conjunto de herramientas que nos proporcionen la capacidad de llevar
a cabo las distintas pruebas de seguridad, siguiendo una metodología concreta como
puede ser la “Guía de pruebas de OWASP” (1). A pesar de que existe una gran cantidad
de herramientas enfocadas a la realización de auditorías y ejecución de pruebas de
seguridad sobre el software, en ocasiones se presentan situaciones específicas en las
que es necesario automatizar ciertos procedimientos de pruebas mediante la
implementación de scripts que hacen uso de librerías que permiten la gestión de las
comunicaciones HTTP/HTTPs. Sin embargo existen ciertos escenarios en los que el
rendimiento es crítico para la realización de las pruebas de seguridad, por lo tanto es
necesario disponer una API implementada en un lenguaje de programación de alto
nivel que dis ponga de un alto rendimiento de ejecución especialmente en la realización
de procedimientos iterativos.
2015-04-14T09:25:35Z
2015-04-14T09:25:35Z
2013
bachelor thesis
http://hdl.handle.net/10347/12983
spa
open access
oai:minerva.usc.es:10347/310182023-10-11T00:03:10Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2023-10-10T09:22:38Z
urn:hdl:10347/31018
Predicción del rendimiento de una red neuronal profunda para optimizar sus hiperparámetros.
García Amboage, Juan Pablo
Fernández Pena, Anselmo Tomás
Wulff, Eric Gustaf Ted
Universidade de Santiago de Compostela. Departamento de Electrónica e Computación
redes neuronales
Swift-Hyperband
Este trabajo estudia el uso de predictores de rendimiento con el objetivo de
acelerar la optimización de hiperparámetros de modelos de aprendizaje profundo.
Más concretamente, se muestra cómo la regresión de vectores de soporte, tanto
en su versión clásica como cuántica, es un modelo con buena capacidad para predecir
el rendimiento de la red neuronal para reconstrucción de flujo de partículas
MLPF. Además, se introduce un nuevo algoritmo para optimización de hiperpar
ámetros, denominado Swift-Hyperband, que permite hacer uso de predictores
de rendimiento, tanto clásicos como cuánticos, para acelerar la optimización de
hiperparámetros. En las pruebas realizadas, tanto para MLPF como para otros
modelos objetivo de distintos dominios, Swift-Hyperband demostró una capacidad
de optimización similar, o incluso superior, a la de los algoritmos existentes
cómo Hyperband y Fast-Hyperband a costa de un menor consumo de recursos
computacionales.
2023-10-10T09:22:38Z
2023-10-10T09:22:38Z
2023-07
bachelor thesis
http://hdl.handle.net/10347/31018
spa
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
oai:minerva.usc.es:10347/265332021-07-06T08:33:39Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2021-06-29T11:23:28Z
urn:hdl:10347/26533
Paralelización y optimización de algoritmos de stereo matching
Cambeiro Barreiro, Aleixo
Pichel Campos, Juan Carlos
Fernández Rivera, Francisco (dir.)
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Stereo Matching
Mapa de profundidad
Pixel-wise Matching
Software
Traballo Fin de Grao en Enxeñaría Informática. Curso 2014-2015
El tema principal que aborda este trabajo es el Stereo Matching, así como la optimización de algunos de los algoritmos más relevantes de este campo. Se conoce como Stereo Matching o Stereo Vision al proceso de extracción de información sobre la profundidad de los objetos de una escena, basado en la comparación de varias imágenes de esta tomadas desde diferentes puntos. Esto se puede conseguir conociendo la posición de las proyecciones de un mismo punto en dos imágenes de la misma escena, así como las posiciones relativas de las cámaras que las han obtenido y sus parámetros intrínsecos (relativos a la lente, deben ser obtenidos mediante calibración experimental de la máquina). Con estos datos podemos deducir la posición del punto original en un espacio tridimensional. Esta nos permite conocer la profundidad del objeto en la escena respecto a la posición de cada cámara.
2021-06-29T11:23:28Z
2021-06-29T11:23:28Z
2015-07
bachelor thesis
http://hdl.handle.net/10347/26533
spa
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
oai:minerva.usc.es:10347/265432021-07-06T08:37:48Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2021-06-30T08:11:48Z
urn:hdl:10347/26543
Procesamiento en tiempo real de log de actividad en sistemas de Receta Electrónica y uso de técnicas avanzadas de clustering en entornos Hadoop
Cores Costa, Daniel
Fernández Pena, Tomás (dir.)
Sanz Anchelergues, Adolfo
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Receta electrónica
Dispensación electrónica
Spark
Apache
Hadoop
Traballo Fin de Grao en Enxeñaría Informática. Curso 2014-2015
El objetivo de este proyecto es proporcionar una herramienta capaz de analizar los logs de
actividad de un sistema de Receta Electrónica en tiempo real, en concreto, del sistema de
Dispensación Electrónica implantado en el SERGAS, de tal forma que los usuarios puedan tener a su disposición una serie de informes que pueden actualizar utilizando los parámetros que deseen. Se busca una solución que ofrezca un sistema robusto y con unos tiempos de respuesta reducidos con el fin de poder ofrecer un servicio en tiempo real y de alta disponibilidad prestando especial atención a la posibilidad de que se produzca pérdida de datos. En este sentido, las etapas de análisis tecnológico y de diseño de la arquitectura del sistema cobrarán especial relevancia a la hora de poder confeccionar un sistema de estas características. Surgen un gran número de cuestiones inherentes al procesamiento en tiempo real que se deben solventar y que en el proyecto anterior no se tenían en cuenta. Por un lado, necesitamos establecer un mecanismo de comunicación robusto con el sistema de Receta Electrónica que no sea sensible al estado del sistema o de la red. Por otro lado, se imponen unas fuertes restricciones sobre los tiempos de procesamiento, en este sentido, cabe destacar que cuando nos referimos a procesamiento en “tiempo real”, realmente, nos estamos refiriendo a sistemas de procesamiento NRT (“near real time”), se trata de sistemas capaces de procesar y analizar los datos a medida que son recibidos ofreciendo unos tiempos de respuesta muy bajos pero que, realmente, tienen un pequeño retardo con respecto a los datos originales.
2021-06-30T08:11:48Z
2021-06-30T08:11:48Z
2015-09
bachelor thesis
http://hdl.handle.net/10347/26543
spa
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
oai:minerva.usc.es:10347/296062023-01-12T13:56:42Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2022-12-16T10:08:25Z
urn:hdl:10347/29606
Detección de objetos mediante few-shot
García Fernández, Pablo
Mucientes Molina, Manuel Felipe
Cores Costa, Daniel
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Detección de objetos en imágenes
Aprendizaje few-shot
Detección few-shot
Traballo Fin de Grao en Enxeñaría Informática. Curso 2020-2021
Los últimos avances en detección de objetos en imágenes están impulsados,
principalmente, por el uso de redes neuronales convolucionales sobre grandes conjuntos de datos etiquetados. Sin embargo, cuando estos datos de entrenamiento
son limitados, el rendimiento de los detectores se deteriora considerablemente.
Para solventar este problema surge el aprendizaje few-shot; redes con capacidad
para detectar objetos de categorías nunca vistas a partir de un reducido número
de ejemplos etiquetados. En este trabajo, partiendo de la red de detección fewshot FewX, se ha analizado experimentalmente la capacidad de generalización
y desempeño de estas arquitecturas. Así se ha observado que, pese a la habilidad
para detectar objetos nunca vistos, estas aproximaciones todavía tienen un amplio margen de mejora.
Además, una vez adquirida una profunda comprensión acerca del problema,
se ha modificado FewX. El principal cambio es la introducción de una Feature
Pyramid Network. Los experimentos demuestran que nuestra versión de la red
supera a FewX en todas las métricas.
2022-12-16T10:08:25Z
2022-12-16T10:08:25Z
2021-07
bachelor thesis
http://hdl.handle.net/10347/29606
spa
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
oai:minerva.usc.es:10347/265572021-07-09T02:02:45Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2021-07-08T08:15:23Z
urn:hdl:10347/26557
Herramienta para evaluar la conformidad de procesos de negocio
Casas-Ramos, Jacobo
Lama Penín, Manuel (dir.)
Mucientes Molina, Manuel
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Procesos de negocio
Indicadores de negocio
Evaluación de negocios
Herramienta de evaluación
Traballo Fin de Grao en Enxeñaría Informática. Curso 2018-2019
Las técnicas de comprobación de conformidad de procesos (conformance
checking) verifican si las trazas de ejecución de un procesos son consistentes
con el modelo que describe su comportamiento. Sin embargo, en ocasiones
los usuarios están interesados en consultar si un submodelo se verifica y/o si
ciertas condiciones temporales o restricciones sobre indicadores clave de negocio
han tenido lugar.
Para resolver este problema se han propuesto trabajos basados en una aproximación
declarativa y/o en chequeo de modelos. El principal problema de
estas aproximaciones es su falta de flexibilidad a la hora de definir submodelos
de procesos que contienen cualquier estructura de control y añadir a dichos modelos
condiciones temporales complejas sobre actividades y condiciones sobre
indicadores clave de negocio. En esta memoria se abordará este problema con
una aproximación basada en técnicas de conformidad de procesos y en tecnologías
de análisis masivo de datos (Big Data).
2021-07-08T08:15:23Z
2021-07-08T08:15:23Z
2019-07
bachelor thesis
http://hdl.handle.net/10347/26557
spa
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional
oai:minerva.usc.es:10347/296042023-12-12T11:56:37Zcom_10347_9610com_10347_6399com_10347_6394col_10347_12410
2022-12-16T09:27:19Z
urn:hdl:10347/29604
Incorporación de información espectral, espacial y de texturas para la detección de cambios en imágenes hiperespectrales multitemporales
Cardama Santiago, Francisco Javier
Suárez Garea, Jorge Alberto
Blanco Heras, Dora
Universidade de Santiago de Compostela. Escola Técnica Superior de Enxeñaría
Teledetección
Detección de cambios en imágenes
Algoritmos de segmentación
Traballo Fin de Grao en Enxeñaría Informática. Curso 2020-2021
La detección de cambios basada en datos de teledetección es un método ampliamente utilizado en evaluación de desastres, revisión de mapas o análisis de
cambios en el uso del suelo, entre otros. El proceso tiene como objetivo el de
identificar las diferencias producidas entre dos imágenes captadas en instantes
de tiempo distintos sobre la misma área geográfica, en el caso de este trabajo
imágenes hiperespectrales multitemporales obtenidas mediante satélite.
Una imagen hiperespectral contiene una gran cantidad de información del
espectro electromagnético de la luz de una zona de la superficie terrestre. Cada
imagen contiene gran cantidad de información que puede ser analizada y extraída
mediante diferentes tipos de algoritmos. Entre ellos se encuentran los que realizan de extracción de características como el uso de segmentaciones para agrupar
los píxeles que sigan un patrón establecido, o el de extracción de texturas para
distinguir entre distintos tipos de materiales. Gracias a estos algoritmos se obtienen características adicionales de estructuras o grupos de píxeles que son de
utilidad para distinguir cambios entre imágenes hiperespectrales multitemporales.
Los objetivos de este proyecto son, por un lado, analizar los distintos esquemas de detección de cambios existentes en la bibliografía y, por otro, estudiar los
tipos de algoritmos de extracción de información que se pudieran integrar como
etapas en dichos esquemas. Finalmente, después de un análisis y estudio de estas
técnicas el siguiente objetivo es el de incorporar los distintos tipos de información
en un esquema de detección de cambios conocido para poder realizar un análisis
y comparativa de la repercusión que tiene la inclusión de dichas características
adicionales.
El esquema de detección de cambios que se considera en este trabajo tiene por
objetivo producir un mapa de cambios que indique para cada píxel si ha cambiado o no (detección binaria de cambio) y el tipo de cambio dentro de un conjunto
posible de ellos (detección de cambio multiclase). Los cambios fundamentales propuestos con respecto a los esquemas de la bibliografía están relacionados con la
incorporación de información espacial y de texturas.
Se propone la utilización de nuevas alternativas de algoritmos de segmentación
que son aplicados a cada una de las imágenes de partida con el objeto de extraer
características comunes a cada segmento. Además, se propone la extracción de
texturas para cada segmento de las imágenes con el objetivo de caracterizar de
manera más efectiva la información que permitirá detectar los diferentes tipos
de cambio. Se analizan los resultados no solamente a nivel de precisión de la
detección, sino también de tiempo de ejecución de las diferentes propuestas presentadas confirmando la pertinencia de la aproximación que se presenta.
2022-12-16T09:27:19Z
2022-12-16T09:27:19Z
2021-06
bachelor thesis
http://hdl.handle.net/10347/29604
spa
http://creativecommons.org/licenses/by-nc-sa/4.0/
open access
Atribución-NoComercial-CompartirIgual 4.0 Internacional