Mostrar el registro sencillo del ítem
Melhoria de Qualidade de Vídeo Comprimido: soluções com Redes Neurais Profundas para Múltiplos Codecs
| dc.creator | Franco Neto, Gilberto Kreisler | |
| dc.date.accessioned | 2024-12-06T14:46:24Z | |
| dc.date.available | 2024-12-06T14:46:24Z | |
| dc.date.issued | 2024-06-27 | |
| dc.identifier.citation | FRANCO NETO, Gilberto Kreisler. Melhoria de Qualidade de Vídeo Comprimido: soluções com Redes Neurais Profundas para Múltiplos Codecs. Orientador: Guilherme Ribeiro Corrêa. 2024. 76 f. Dissertação (Mestrado em Ciência da Computação) – Centro de Desenvolvimento Tecnológico, Universidade Federal de Pelotas, Pelotas, 2024. | pt_BR |
| dc.identifier.uri | http://guaiaca.ufpel.edu.br/xmlui/handle/prefix/14649 | |
| dc.description.abstract | The compression process necessary to enable video transmission and storage generates artifacts that reduce image quality, thereby resulting in a poorer user experience. To mitigate these artifacts, filtering strategies are typically applied to the decompressed frames, which are classified as in-loop and post-processing strategies. The later functions as a second layer of filtering, as some artifacts persist after in-loop filtering. Since they are not tied to any specific codec, these filters can be used as post-processing for any codec. The most recent post-processing filtering techniques are based on Deep Neural Networks, specifically Convolutional Neural Networks (CNNs), such as Spatio-Temporal Deformable Fusion (STDF), which is the state-of-the-art technique for video quality enhancement. However, as the results obtained in this research show, the STDF architecture does not yield good results when tested with other coding standards and quantization levels, causing quality losses in certain scenarios. Therefore, this work proposes the exploration of training techniques for the STDF architecture with the aim of improving its generalization capability across various video codecs. The first and second solutions are similar in methodology, proposing training based on a mixed dataset consisting of videos encoded by AOMedia Video 1 (AV1) and Versatile Video Coding (VVC). Unlike the first solution, which is trained from scratch without using a pre-trained model, the second solution employs fine-tuning strategy, starting from the original STDF model. The third solution is based on the multi-domain training paradigm, where each domain corresponds to a video codec. Experimental results show that the third solution achieved objective quality improvements of up to 1.234 dB. On average, the quality improvement achieved was 0.544 dB, and the solution proved capable of enhancing visual quality for all tested encoders and videos, being generic enough to be used as a single post-processing filter for multiple encoding standards/formats. | pt_BR |
| dc.description.sponsorship | Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES | pt_BR |
| dc.language | por | pt_BR |
| dc.publisher | Universidade Federal de Pelotas | pt_BR |
| dc.rights | OpenAccess | pt_BR |
| dc.subject | Melhoria de qualidade de vídeo | pt_BR |
| dc.subject | Rede Neural Convolucional | pt_BR |
| dc.subject | Rede Neural Profunda | pt_BR |
| dc.subject | Codificação de vídeo | pt_BR |
| dc.subject | Video Quality Enhancement | pt_BR |
| dc.subject | Convolutional Neural Network | pt_BR |
| dc.subject | Deep Neural Network | pt_BR |
| dc.subject | Video Coding | pt_BR |
| dc.title | Melhoria de Qualidade de Vídeo Comprimido: soluções com Redes Neurais Profundas para Múltiplos Codecs | pt_BR |
| dc.title.alternative | Compressed Video Quality Enhancement: Solutions with Deep Neural Networks for Multiple Codecs | pt_BR |
| dc.type | masterThesis | pt_BR |
| dc.contributor.authorLattes | http://lattes.cnpq.br/8869246350367351 | pt_BR |
| dc.contributor.advisorLattes | http://lattes.cnpq.br/1389878856201800 | pt_BR |
| dc.contributor.advisor-co1 | Zatt, Bruno | |
| dc.contributor.advisor-co1Lattes | http://lattes.cnpq.br/8251926321102019 | pt_BR |
| dc.contributor.advisor-co2 | Palomino, Daniel Munari Vilchez | |
| dc.contributor.advisor-co2Lattes | http://lattes.cnpq.br/3163503973303585 | pt_BR |
| dc.description.resumo | O processo de compressão necessário para viabilizar transmissão e armazena mento de vídeos gera artefatos que reduzem a qualidade da imagem, o que se reflete em uma pior qualidade de experiência do usuário. Para atenuar esses artefatos, são tipicamente aplicadas estratégias de filtragem no quadro descomprimido, as quais são classificadas como estratégias in-loop e de pós-processamento. Esta última funciona como uma segunda camada de filtragem, já que alguns artefatos persistem após a filtragem in-loop. Por não estarem atrelados a nenhum codec em específico, esses filtros podem ser usados como pós-processamento de qualquer codec. As técnicas mais atuais de filtragem de pós-processamento são baseadas em Redes Neurais Profundas, mais especificamente nas Redes Neurais Convo lucionais (CNN), como é o caso da Spatio-Temporal Deformable Fusion (STDF), que é a técnica estado-da-arte para melhoria de qualidade de vídeos. Entretanto, conforme apresentam os resultados obtidos nesta pesquisa, a arquitetura STDF não apresenta bons resultados quando testada com outros padrões de codificação e níveis de quantização, causando, inclusive, perdas de qualidade em determinados cenários. Por isso, este trabalho propõe a exploração de técnicas de treinamento da arquitetura STDF, com o objetivo de melhorar sua capacidade de generalização em diversos codecs de vídeo. A primeira e a segunda solução são semelhantes quanto à metodologia, ao propor um treinamento baseado em um dataset misto formado por vídeos codificados pelo AOMedia Video 1 (AV1) e Versatile Video Coding (VVC). Ao contrário da primeira solução, que é treinada desde o início sem utilizar modelo pré-treinado, a segunda solução emprega a estratégia de fine tunning, partindo do modelo STDF original. A terceira solução se baseia no paradigma de treinamento multi-domínio, onde cada domínio corresponde a um codec de vídeo. Os resultados experimentais mostram que a terceira solução atingiu melhorias de qualidade objetiva de até 1,437 dB. Na média, a melhoria de qualidade atingida foi de 0,569 dB e a solução mostrou-se capaz de melhorar a qualidade visual para todos os codificadores e todos os vídeos testados, sendo genérica o suficiente para ser usada como filtro único de pós-processamento para múltiplos padrões/formatos de codificação. | pt_BR |
| dc.publisher.program | Programa de Pós-Graduação em Computação | pt_BR |
| dc.publisher.initials | UFPel | pt_BR |
| dc.subject.cnpq | CIENCIAS EXATAS E DA TERRA | pt_BR |
| dc.publisher.country | Brasil | pt_BR |
| dc.rights.license | CC BY-NC-SA | pt_BR |
| dc.contributor.advisor1 | Corrêa, Guilherme Ribeiro | |
| dc.subject.cnpq1 | CIENCIA DA COMPUTACAO | pt_BR |
Ficheros en el ítem
Este ítem aparece en la(s) siguiente(s) colección(ones)
-
PPGC: Dissertações e Teses [233]
Dissertações e teses.

