Defesa de Dissertação de Mestrado – Ricardo Luis Pieper

HIGH-LEVEL PROGRAMMING ABSTRACTIONS FOR DISTRIBUTED STREAM PROCESSING

18/09/2020 - 08h36

DEFESA DE DISSERTAÇÃO DE MESTRADO – Programa de Pós-Graduação em Ciência da Computação

HIGH-LEVEL PROGRAMMING ABSTRACTIONS FOR DISTRIBUTED STREAM PROCESSING

ALUNO: Ricardo Luis Pieper

ORIENTADOR: Dr. Luiz Gustavo Leão Fernandes

BANCA EXAMINADORA: Dr. Marco Danelutto (Univ. of Pisa), Dr. Fernando Luís Dotti (PPGCC/PUCRS)

DATA: 25 de setembro de 2020

LOCAL: Prédio 32, sala 507

HORÁRIO: 10:00

Link para videoconferência na plataforma Zoom (ID: 995 5179 2701 e senha: 226461)

RESUMO: Aplicações de processamento de fluxo contínuo de dados (stream processing) representam uma parte significativa dos softwares atuais. Uma quantidade maior de dados é gerada todos os dias e de fontes variadas (através de dispositivos computacionais e aplicações), que requerem processamento em tempo hábil. Arquiteturas de memória compartilhada não conseguem atender demandas de processamento em larga escala. No contexto de computação de alta performance, a interface de programação MPI (Message Passing Interface) é considerada o estado da arte para implementar programas paralelos em C/C++. No entanto, a exploração de paralelismo de fluxo contínuo de dados usando MPI é difícil e sujeita a erros aos desenvolvedores de aplicação, pois ele expõe os detalhes de baixo nível das arquiteturas de computadores e sistemas operacionais. Os programadores precisam lidar com mecanismos de serialização de dados, comunicação entre processos, sincronização, tolerância a falhas, balanceamento de carga, escalonamento de trabalhos e estratégias de paralelismo. Este trabalho aborda um subconjunto desses problemas e desafios, oferecendo duas abstrações de alto-nível para processamento de fluxo contínuo de dados em arquiteturas de memória distribuída. Primeiramente, foi criada uma biblioteca de paralelismo de fluxo contínuo de dados nomeada de DSPARLIB. A biblioteca foi construída como uma biblioteca de esqueletos equipada com os padrões paralelos Farm e Pipeline, provendo abstrações acima do MPI. Depois, a linguagem SPAR foi estendida para suportar arquiteturas de memória distribuída, uma vez que ela é uma linguagem de domínio específico para expressar paralelismo de fluxo contínuo de dados usando anotações do C++11, que se mostram produtivas em arquiteturas de memória compartilhada. Este trabalho conseguiu estender o compilador e a linguagem SPAR sem alterar significativamente a sintaxe e a semântica, gerando código que usa DSPARLIB como ambiente de execução paralelo. Os experimentos foram conduzidos usando aplicações reais de processamento de fluxo contínuo de dados em diferentes configurações de cluster. Este trabalho demonstra que a DSPARLIB provê uma interface mais simples que o MPI e apresenta um desempenho competitivo. O compilador da linguagem SPAR foi capaz de gerar código paralelo automaticamente, sem perdas de desempenho em comparação com código escrito à mão com a DSPARLIB. Por último, com todas essas abstrações de alto nível, a SPAR se torna a primeira linguagem baseada em anotações para expressar paralelismo de fluxo contínuo de dados em C++ a suportar arquiteturas de memória distribuída, evitando refatorações de código significativas para permitir a execução paralela em clusters.

Compartilhe

Informações do evento

Data
25/09/2020 até 25/09/2020

Próximos eventos


Outros eventos Ver todos

  • Últimos publicados
  • Mais visualizados