Local:
Laboratório Nacional de Computação Científica - LNCC
Endereço:
Av. Getúlio Vargas , 333, Quitandinha
Petrópolis - Rio de Janeiro
CEP 25651-075 - Brasil
ERAD-Fórum de Palestras
Palestra 1: Porque CAD é importante em engenharia e ciência
computacional e aprendizado de máquina científico.
Dia 29/11/2021 - Horário 14:00- 15:30:
Palestrante: Alvaro Coutinho (COPPE/UFRJ)
Mini-bio:
Alvaro Coutinho, pesquisador CNPq 1A, Cientista do Nosso
Estado FAPERJ (2017-), possui graduação em Engenharia Civil pela Universidade
Federal do Rio de Janeiro (1980), mestrado (1984) e doutorado (1987) em Engenharia
Civil pela COPPE/Universidade Federal do Rio de Janeiro (1984). Professor visitante
no Oden Institute for Computational Engineering and Sciences, the University of
Texas at Austin, USA (2004). Professor Titular (2001), Diretor Financeiro (2006-2008),
Diretor Adjunto de Tecnologia e Inovação (2004-2008) da COPPE/UFRJ onde atualmente
coordena a Área Interdisciplinar de Engenharia e Ciência Computacional e dirige
o Núcleo Avançado de Computação de Alto Desempenho. É membro de corpo editorial
do Int J for Numerical Methods in Fluids, Int J for Numerical Methods in Engineering,
Editor Associado da Revista Internacional de Métodos Numéricos para Cálculo y Diseño en Ingeniería,
consultor da Fundação COPPETEC e Membro do Comitê Executivo da International Association
for Computational Mechanics. Recebeu o IBM Faculty Award (2001), o Prêmio COPPE de Mérito
Acadêmico 2007, e Fellow da International Association of Computational Mechanics (2012).
Em 2015 recebeu o Prêmio InRio Personalidades do Ano da Assespro RJ.
Link youtube:
aqui
Inicio no youtube: 00H:04m:13s
Palestra 2: Frameworks de Desenvolvimiento de Aplicações HPC e AI da NVIDIA.
Dia 29/11/2021 - Horário 16:00- 17:00
Palestrante: Pedro Mario (NVIDIA)
Resumo:
A Inteligência Artificial (IA) moderna está revolucionando quase todas as indústrias. As técnicas de Deep Learning (DL) permitiram avanços em Visão Computacional e agora vemos produtos usando Intelligent Video Analytics (IVA) atingindo um platô de produtividade em aplicações. Recentemente, a capacidade de treinar grandes modelos de DL é o Processamento de Linguagem Natural (PNL) que está abrindo caminho para novos avanços disruptivos. Todo esse ecossistema de inovação empolgante está levando a capacidade de computação global ao limite. A NVIDIA é a maior empresa de computação que oferece suporte à maioria desses avanços. A plataforma da NVIDIA para IA e HPC é uma abordagem full-stack onde Hardware e Software evoluem juntos para atender aos requisitos de desempenho das mais exigentes soluções empresariais e de ciência digital. Nesta apresentação, darei uma visão geral dos principais componentes de software e hardware da NVIDIA dentro de frameworks Deep Learning (TensorFlow & Pytorch) e plataformas de aplicativos NVIDIA: RAPIDS (Machine Learning), Metropolis (IVA), Riva (Conversational AI), Merlin (Recomendador Systems), Morpheus (Cybersecurity), etc. Vou mostrar o exemplo de simulação de computação quântica acelerada por GPU com nossa nova biblioteca cuQuantum.
Mini-bio:
Pedro Mário Cruz e Silva é Bacharel em Matemática (1995) e Mestre em Matemática Aplicada e Otimização (1998) pela UFPE, Doutor em Computação Gráfica pela PUC-Rio (2004). Trabalhou por 15 anos no Instituto Tecgraf/PUC-Rio onde criou o Grupo de Geofísica Computacional, durante este período liderou diversos projetos de Desenvolvimento de Software, bem como projetos de Pesquisa na área de Geofísica. Tem mais de 10 anos de experiência com Métodos Ágeis de desenvolvimento de Software, fez treinamentos de Certified Scrum Master (CSM) e Certified Scrum Product Owner (CSPO). Finalizou o MBA em Gestão Empresarial na FGV-Rio. Atualmente é membro da diretoria da Sociedade Brasileira de Geofísica (SBGf) onde ocupa o cargo de Secretário de Publicações. Atualmente é Arquitetos de Soluções Sênior da NVIDIA para o segmento Empresarial na América Latina, com foco especial em Aplicações de HPC e Deep Learning para o setor de Ensino Superior e Pesquisa.
Link youtube:
aqui
Inicio no youtube: 05H:00m:55s
Palestra 3: Computação em névoa: Contextualização, beneficios e desafios.
Dia 30/11/2021 - Horário 14:00- 15:30
Palestrante: Ateléia Araújo (UNB)
Resumo:
A computação em névoa é uma extensão da computação em
nuvem para prover recursos próximos aos usuários e fazer a ponte entre
Internet das Coisas (IoT) e a Nuvem. Nesta palestra serão apresentados
os principais conceitos e características deste novo paradigma
computacional, bem como as suas vantagens em relação aos demais
paradigmas computacionais existentes e os desafios a serem superados.
Mini-bio:
Aletéia Patrícia Favacho de Araújo possui graduação no
curso de Bacharelado em Ciências da Computação pela Universidade
Federal do Pará (1997), mestrado em Ciências da Computação e
Matemática Computacional pela Universidade de São Paulo (1999) e
doutorado em Informática pela Pontifícia Universidade Católica do Rio
de Janeiro (2008). Atualmente, é professora Associada da Universidade
de Brasília (UnB). Tem experiência na área de Ciência da
Computação, com ênfase em Processamento Paralelo, Sistemas
Distribuídos, Otimização Combinatória e Metaheurísticas, atuando
principalmente nos seguintes temas: nuvem computacional, fog
computacional, algoritmos paralelos e distribuídos. É co-fundadora e
coordenadora do projeto de extensão Meninas.comp, que objetiva
incentivar as meninas dos ensinos fundamental e médio a elegerem a
área de computação como opção profissional. Além disso,
atualmente, é coordenadora do Programa Nacional da SBC – Meninas
Digitais.
Link youtube:
aqui
Inicio no youtube: 00H:02m:33s
Palestra 4: Future of HPC.
Dia 01/12/2021 - Horário 14:00- 15:30
Palestrante: John Urbanic (Pittsburg Supercomputer Center)
Resumo:
In this talk John Urbanic, Parallel Programming Scientists at the
Pittsburgh Supercomputing Center, will discuss the future roadmap
of High Performance Computing, motivated by our present and developing
technologies. The end of Moor’s Law, and the dawning of the Exascale
era, present many opportunities. John will discuss the technical
challenges that drive the design of these machines at the largest
scale, as well as future advances that may change the roadmap.
Far from theoretical, these issues inform the choices you make
today regarding application development.
Mini-bio:
The researcher is a specialist in Parallel and Concurrent Computing.
In particular, in High Performance Computing and Extremely Scalable
Technologies, including extensions to MPI, OpenMP, OpenACC and Application
Programming Language Extensions and performance optimization techniques
in Big Data programming environments such as Spark and Machine and Deep Learning environments.
Link youtube:
aqui
Inicio no youtube: 00H:00m:30s
Palestra 5: Construindo um Supercomputador para o TOP500.
Dia 01/12/2021 - Horário 17:00- 18:00
Palestrante: Genaro Costa (ATOS)
Resumo:
O desenho de um supercomputador deve tomar em conta diversos aspectos,
como arquitetura do processador, topologia e tecnologia da rede de alto
desempenho, refrigeração e consumo energético, dentre outros. A
composição das máquinas mais rápidas do mundo (TOP500) vem mudando
com a adoção de novas tecnologias, como aceleradores e arquiteturas
hibridas. Nessa palestra serão apresentados aspectos importantes no
desenho de supercomputadores e produtos atualmente disponíveis para sua
construção de um supercomputador que entre no Top500.
Mini-bio:
Genaro Costa, PhD, PMP. Atua como HPC Distinguished Expert /
Gerente de Projetos na Atos Bull, coordenando o Atos R&D Labs no Senai
CIMATEC. Graduado em Ciência da Computação, mestre e doutor em
Informática pela Universitat Autónoma de Barcelona (UAB). Tem
interesse de pesquisa em Computação de Alto Desempenho, Machine
Learning, Big Data, Performance Models, Computer Vision, Quantum
Computing e Prescriptive Analytics.
Link youtube:
aqui
Inicio no youtube: 02H:58m:00s
Palestra 6: Intelligent Task Management for Latency-Critical Cloud Services.
Dia 02/12/2021 - Horário 15:00- 16:30
Palestrante: Vinicius Petrucci (Pittsburgh University)
Resumo:
Many of the important services running on data centres are
latency-critical, time-varying, and demand strict user satisfaction.
Stringent tail-latency targets for colocated services and increasing
system complexity make it challenging to reduce the power
consumption of data centres. Data centres typically sacrifice server efficiency to maintain
tail-latency targets resulting in an increased total cost of ownership.
This talk discusses solutions to scalable quality-of-service (QoS)
aware task managers for latency-critical services co-located on a
server system. The goal is to improve energy efficiency while achieving QoS
guarantee for latency-critical services.
Mini-bio:
Vinicius Petrucci is currently a Lecturer of Computer Science at
University of Pittsburgh, USA. He also holds an appointment as
Tenured Assistant Professor of Computer Science at the Federal University of
Bahia, Salvador, Brazil. He was a postdoctoral researcher at the
University of California, San Diego (2013) and the University of
Michigan-Ann Arbor, USA (2014). He obtained his Ph.D. in Computer
Science at Fluminense Federal University, Brazil (2012), including a
research stay at the University of Pittsburgh, USA (2011). His
research interests are in computer systems with emphasis on
improving resource efficiency while providing real-time performance
guarantees. He is a member of ACM.
Link youtube:
aqui
Inicio no youtube: 00H:04m:00s