Pós-Graduação em Ciência da Computação – UFPE
Defesa de Tese de Doutorado Nº 695
Aluno: Marrone Silvério Melo Dantas
Orientador: Prof. Djamel Fawzi Hadj Sadok
Título: Global Average Pruning – A Pruning Filter Ranking Approach based on Global Average Pruning
Data: 26/02/2026
Hora/Local: 14h – Virtual – Interessados em assistir entrar em contato com o aluno
Banca Examinadora:
Prof. Aluizio Fausto Ribeiro Araujo (UFPE / Centro de Informática)
Prof. Tsang Ing Ren (UFPE / Centro de Informática)
Prof. Fernando Maciano de Paula Neto (UFPE / Centro de Informática)
Prof. Glauco Estácio Gonçalves (UFPA/ Faculdade de Engenharia da Computação e Telecomunicações)
Prof. Francisco Madeiro Bernardino Júnior (UPE/Escola Politécnica de Pernambuco)
RESUMO:
A crescente complexidade das Redes Neurais Convolucionais (CNNs) impõe desafios significativos para a implementação em dispositivos com recursos limitados devido às altas exigências computacionais e de memória. Esta tese apresenta o Global Pooling Pruning (GPP), um framework de pruning estruturado inovador que identifica e remove filtros redundantes através da análise de padrões de ativação espacial. A principal contribuição deste trabalho é um mecanismo de ranking orientado a dados que transcende a simples magnitude dos pesos, incorporando três métricas fundamentais: um Score de Variabilidade Interclasse para preservar filtros com alto poder discriminativo; uma Ponderação de Redundância Baseada em Correlação via Agrupamento Aglomerativo para penalizar filtros funcionalmente similares; e uma Alocação Adaptativa de Taxa de Pruning por Camada que distribui o esforço de redução com base na importância da camada e na contagem de parâmetros.
As avaliações experimentais foram realizadas em seis arquiteturas (incluindo VGG, ResNet e DenseNet) em quatro datasets de referência: CIFAR-10, CIFAR-100, Oxford Flowers-102 e Food-101. Os resultados demonstram que o GPP explora eficazmente a sobreparametrização arquitetural, particularmente na DenseNet-121 e VGG-16. No CIFAR-10, a VGG-16 alcançou uma redução de 20,2% em FLOPs com uma queda mínima de acurácia para uma taxa de pruning de P = 0,1. A ResNet-50 apresentou a maior compressibilidade, atingindo até 69,8% de redução de FLOPs para P = 0,3, embora com uma penalidade de acurácia mais acentuada. A DenseNet-121 emergiu como a arquitetura mais resiliente, mantendo uma acurácia impressionante de 82,2% enquanto reduziu os FLOPs em 48,5% no CIFAR-10. Estes achados validam o GPP como uma ferramenta potente para a otimização de CNNs, fornecendo uma abordagem sofisticada e agnóstica à arquitetura para aumentar a eficiência em cenários de computação de borda.
Palavras-chave: Redes Neurais Convolucionais, Pruning Estruturado, Compressão de Modelos, Eficiência Computacional, Inteligência Artificial.
Comentários desativados