2nd IEEE CASS Seasonal School on

Digital Processing of Visual Signals and Applications

Anfiteatro do Centro de Eventos do Instituto de Informática - UFRGS


Porto Alegre, Brazil

Oct 04 to 06, 2017

ORGANIZATION

Coordenação Geral
Prof Altamiro Amadeu Susin
Área de Processamento de Imagens
Prof Manuel Menezes de Oliveira e Prof Jacob Scharcanski
Área de Processamento de Vídeo
Prof Sergio Bampi e Prof Bruno Zatt
Área de Aplicações
Prof Edison Pignaton de Freitas
Sessão de Posters
Prof Raphael Brum
IEEE CASS Liaison
Prof Ricardo Reis

About

The Image Processing and Applications School aims to offer an ambiance of fruitful exchange of ideas and discussion of challenges of this area in the near future, bringing together experts from both academia and industry. There will be mostly conferences of experienced professors and researchers . The target audience is the community of Image Processing, either graduate and undergraduate students as well as industry or research professionals.
A huge amount of images generated at every moment, together with the availability of high peformance processing and communication resources bloom out in plenty of nice and useful applications. Digital Image experts come from a many areas and constitute a interdisciplinary domain that will hopefully add up synergistically to enforce everyone's work.


Image and Video Processing

  • Image acquisition and processing
  • Segmentation and features extraction
  • Simultaneous Location and Mapping; 3D object detection
  • Image and Video compression and coding
  • Algorithms and architectures for video processing

Applications

  • Medical imaging and Telemedicine
  • Advanced driver assistance systems
  • Robotics and Autonomous Guided Vehicles
  • Image Processing for Unmanned Areal Vehicles

PROGRAM

04 October
Click for more details


  • Palestrante: Sergio Bampi (UFRGS)
  • Resumo: Digital video processing is widespread in every consumer electronic device. The development of improved video coding standards with higher efficiency is a continuous effort in the computing community. The evolution of video coding standards, its main principles and algorithms will be described in this tutorial, with emphasis on block partitioning and processing schemes and innovations recently introduced, for H.265 and beyond. Real-time high-efficiency video coding (HEVC) of UHD resolution videos is a challenge, especially considering mobile video-capable hardware devices that must consume little energy to save battery charge. This energy efficiency requirement for future multimedia processors is requiring hardware architecture innovations to integrate multi-core processors with many on-chip hardware accelerators for compute-intensive tasks of the video coder/decoder. This tutorial also covers the algoritms and the dedicated hardware accelerators which are more energy efficient than general purpose processors in performing video tasks. Hardware accelerators will be shown in the tutorial, either as dedicated (ASIC) architectures or as configured/reconfigured FPGA designs. The tutorial starts with an overview the basic concepts on video representation and video coding, before moving to the details of the new HEVC algorithms, data structures, and features. The second part of the tutorial covers the algorithmic optimization for dedicated hardware design and implementation. The state-of-the-art hardware architectures for video codec blocks are presented. In the end we point to significant future challenges to design low power HEVC video codec systems.
  • Bio: Sergio Bampi received the B.Sc. in Electronics Engineering and the B.Sc. in Physics from the Federal Univ. of Rio Grande do Sul (UFRGS, 1979), and the M.Sc. and Ph.D. degrees in EE from Stanford University (USA) in 1986. Full professor in the Digital Systems and Microelectronics design fields at the Informatics Institute, member of the faculty since 1986. He is a member of the PPGC Computing Graduate Program since 1988, and of the PGMICRO since its start in 2002. He served as Graduate Program Coordinator (2003-2007), head of research group and projects, technical director of the Microelectronics Center CEITEC (2005-2008) and is the past President of the FAPERGS Research Funding Foundation and of the SBMICRO Society (2002-2006). He is a former member of HP Inc. technical staff, and a visiting research faculty at Stanford University (1998-99) in the USA. His research interests are in the area of IC design, nano-CMOS devices, mixed signal and RF CMOS design, low power digital design, dedicated complex algorithms, architectures, and ASICs for image and video processing. He has co-authored more than 340 papers in these fields and in MOS devices and EDA. He is a member of IEEE, SBC, and SBMICRO scientific societies. He was Technical Program Chair of IEEE SBCCI Symposium (1997, 2005), SBMICRO (1989, 1995), IEEE LASCAS (2013), VARI 2016 Workshop. Served in scientific and technical advisory boards at UFRGS, FINEP, BNDES, CGEE, CAPES, MCTI, among others.
  • Palestrante: Claudio Jung (UFRGS)
  • Resumo: Nesse palestra abordarei o problema de casamento estéreo/multiview e interpolação de vistas com base em um arranjo linear de câmeras. Mais precisamente, será abordada uma estratégia para obtenção do mapa de disparidade com base em triangulação do domínio, que pode ser facilmente estendida para gerar uma malha 3D completa e realizar a interpolação de vistas.
  • Bio: Claudio Jung é professor no Instituto de Informática da UFRGS desde 2009. Possui graduação (1993) e mestrado (1995) em Matemática Aplicada, e doutorado em Informática (2002), todos títulos conferidos pela UFRGS. Foi professor visitante na University of Pennsylvania entre julho de 2015 a julho de 2016. Seu principais interesses de pesquisa são processamento de imagens, visão computacional e reconhecimento de padrões. Em particular, tem interesse em vigilância eletrônica, síntese e análise de multidões, veículos inteligentes, processamento de imagens médicas, processamento de dados audiovisuais, e casamento estéreo/multiview.
  • Palestrante: Manuel Menezes de Oliveira Neto e Eduardo Gastal (UFRGS)
  • Resumo: We present an image downscaling technique capable of appropriately representing high-frequency structured patterns. Our method breaks conventional wisdom in sampling theory—instead of discarding high-frequency information to avoid aliasing, it controls aliasing by remapping such information to the representable range of the downsampled spectrum. The resulting images provide more faithful representations of their original counterparts, retaining visually-important details that would otherwise be lost. Our technique can be used with any resampling method and works for both natural and synthetic images. We demonstrate its effectiveness on a large number of images downscaled in combination with various resampling strategies. By providing an alternative solution for a long-standing problem, our method opens up new possibilities for image processing.
  • Bio: Manuel Menezes de Oliveira Neto é Professor Associado do Instituto de Informática da Universidade Federal do Rio Grande do Sul (UFRGS). Ele obteve seu doutorado pela University of North Carolina at Chapel Hill, Estados Unidos, em 2000. Antes de ingressar na UFRGS em 2002, foi Professor Assistente no Departamento de Ciência da Computação da State University of New York at Stony Brook (2000 a 2002). Durante o ano acadêmico 2009-2010, foi Visiting Associate Professor no MIT Media Lab. Seus interesses de pesquisa incluem computação gráfica, processamento de imagens, fotografia computacional e visão (tanto humana como de máquina). Nessas áreas, ele desenvolveu diversas técnicas, incluindo mapeamento de textura de relevo (relief texture mapping), técnicas de filtragem de imagens e vídeos em tempo real em espaços de alta dimensionalidade, algoritmos eficientes para a transformada de Hough, novos modelos baseados em fisiologia para a percepção de cor e para o reflexo pupilar à luz, e novas técnicas interativas para avaliação de acuidade visual. O Professor Manuel é Conferencista Senior da Sociedade Brasileira de Computação (SBC) na área de Computação Gráfica. Foi co-chair do comitê de programa do ACM SIGGRAPH Symposium on Interactive 3D Graphics and Games 2010 (I3D 2010) e co-chair do comitê organizador do ACM I3D 2009. Ele é membro do Comitê Técnico TC1-89 da CIE (Comissão Internacional sobre Iluminação). Foi co-chair dos comitês de programa do SCGVRIP 2014 (parte do CLEI 2014), WSCG 2013, e SIBGRAPI 2006. Recebeu o Prêmio Pesquisador Gaúcho 2016 (Pesquisador Destaque em Matemática, Estatística e Computação) concedido pela FAPERGS, e o ACM Recognition of Service Award em 2009 e em 2010.
    ***********************************************************************
    Eduardo Simões Lopes Gastal é Professor Adjunto no Instituto de Informática da Universidade Federal do Rio Grande do Sul (UFRGS). Possui doutorado em Computação pela UFRGS (2015), e graduação em Ciência da Computação pela UFRGS (2009/2). Tese de Doutorado agraciada com o prêmio ACM SIGGRAPH Outstanding Doctoral Dissertation Award (2016), e com o 1o Lugar no Concurso de Teses e Dissertações da SBC (2016). Tem experiência na área de Ciência da Computação, com ênfase em Processamento de Imagens e Vídeos, Processamento de Sinais, Computação Gráfica, e Matemática Aplicada; atuando principalmente nos seguintes temas: high-dimensional filtering e edge-aware image and video processing.
  • Palestrante: Felipe Martin Sampaio (IF-RS)
  • Resumo: Embedded manycore processors have tight memory energy budget when processing massively parallel applications, like multimedia processing. Multiple cores simultaneously accessing the same memory infrastructure incur high energy consumption. In this scenario, energy-efficient memory design and management are extremely desired to allow multimedia support in nowadays embedded systems. Video processing emerges as the most used multimedia application in the embedded systems field, reaching billions of users mainly due to the popularization of mobile devices. Advanced video processing algorithms introduce very high pressure on memory hierarchy, leading to undesirable energy and performance overhead. Video codecs (encoders and decoders) are among the most complex and widely deployed video processing applications. Furthermore, parallel video encoders running on manycore systems tightens the memory energy restrictions due to multiple cores accessing the same memory infrastructure simultaneously, which aggravates the energy consumption for both off- and on-chip memory parts. The goal of this talk is to present recent researches regarding energy-efficient memory architectures to enable (HEVC) execution in embedded manycore systems. The proposed solutions are based on opportunities mostly brought by novel memory technologies (STT-RAM technology and multi-level cells design) and organizations (multiple levels of combined scratchpad/cache memory architectures)
  • Bio: Felipe Martin Sampaio received the Master degree in Computer Science from the Federal University of Pelotas, Pelotas, RS, Brazil, in 2013. Nowadays, he is Professor at Federal Institute of Rio Grande do Sul and PhD. Student in Computer Science at Federal University of Rio Grande do Sul, Porto Alegre, RS, Brazil. His research interests are related to energy-efficient memory architectures for general-purpose and application-drive manycore processors. Furthermore, he has been working research field is related to design of Internet of Things (IoT) applications for educational purposes
  • Palestrante: Edison Pignaton de Freitas (UFRGS)
  • Resumo: Com a popularização da utilização de drones em diversas aplicações civis e militares, a área de processamento de imagens embarcados nessas plataformas tem sido merecedora de grande atenção tanto da comunidade acadêmica quanto da indústria. Nesta apresentação serão visitaremos algumas dessas áreas nas quais o uso de imagens tem potencializado a aplicação de drones, discutindo alguns aspectos importantes sobre o processamento de imagens embarcados e perspectivas para o futuro.
  • Bio: Edison Pignaton de Freitas has a position as Associate Professor at Federal University of Rio Grande do Sul, Brazil, having previously worked as Computer Engineer and Researcher at the Brazilian Army from 2004 to 2013, acting in several areas, such as tactical edge networks and aerospace defense projects. He received his PhD from Halmstad University, Sweden, and UFRGS, Brazil, (2011) in a joint PhD program in the area of sensor networks. Among other experiences in his carrier, he performed an internship at AIRBUS Central Entity in the Systems Engineering Department, working for the A380 aircraft project. His main research interests are in the area of Distributed Embedded Real-Time Systems, including Wireless Sensor Networks and Unmanned Aerial Systems.
  • Palestrante: Guilherme Corrêa (UFPel)
  • Resumo: A palestra tem por objetivo apresentar uma visão geral sobre a utilização de técnicas de Mineração de Dados e Aprendizado de Máquina na redução de complexidade em codificadores e transcodificadores de vídeo digital. As principais fontes de complexidade nos codificadores e transcodificadores de vídeo estado-da-arte e os principais trabalhos publicados na literatura com foco em redução de complexidade serão revisitados. Além disso, a palestra apresentará abordagens recentes baseadas em treinamento offline e online de modelos para aceleração da codificação e transcodificação de vídeo HEVC e H.264/AVC. Por fim, tendências e prospecções de trabalhos que envolvem a utilização de técnicas similares na geração futura de codificadores de vídeo serão apresentadas.
  • Bio: Guilherme Corrêa é doutor em Engenharia Electrotécnica e de Computadores pela Universidade de Coimbra (Portugal), mestre em Ciência da Computação pela Universidade Federal do Rio Grande do Sul (UFRGS) e bacharel em Ciência da Computação pela Universidade Federal de Pelotas (UFPel). É professor na UFPel desde 2016 e atua como pesquisador no Video Technology Research Group (ViTech) nos temas de algoritmos e técnicas de codificação de imagem e vídeo, transcodificação de vídeo, transporte e entrega de conteúdo multimídia.
  • Palestrante: Sessão Técnica I
  • Resumo: Evaluation of Different Forward Error Correction Codes on WBAN Communications
    Ph.D. Candidate: Leandro M. G. Rocha (PGMICRO-UFRGS)
    Abstract:All communications are subject to noise, especially in wireless systems. Hence, it is essential to ensure the data transmission reliability to reduce the number of retransmissions in low power devices as the transmitter is known as the most power hungry circuit. To cope this problem, Forward Error Correction (FEC) codes introduce redundant bits that improve the information resiliency in noisy channels. Although the IEEE 802.15.6 Standard proposes the BCH code as the only FEC for Wireless Body Area Networks (WBAN), we explore FEC alternatives, such as LDPC codes, to analyze the trade-offs among hardware complexity, correction capability, and dissipated energy. Consequently, we aim to find the optimal solution based on the channel characteristics, transmitter power and implementation costs.
    **************
    Processamento Digital de Imagens Aplicado à Agricultura de Precisão
    Aluno de Mestrado Mirayr Raul*. Autores: Mirayr Raul*, Adriane Parraga**, Letícia Gruimarães**, Thiago Bertani**, Christian Bredemeier***, Dionisio Doering**, Carolina Trentin** e Altamiro Susin* - *PPGEE-UFRGS, **UERGS, ***PPGFitotecnia-UFRGS
    Resumo:A agricultura de precisão tem por objetivo a redução dos custos de produção e o aumento da produtividade. O Processamento Digital de Imagens pode ser aplicado na Agricultura de Precisão para otimizar a produção Agrícola por meio da estimativa indireta de variáveis agronômicas, como conteúdo de clorofila e índice de área foliar. Esta tarefa pode ser realizada de forma semi-automática utilizando-se imagens obtidas por plataformas orbitais e suborbitais. A utilização de imagens orbitais permite monitorar grandes áreas agrícolas, porém, mesmo imagens com alta resolução espacial podem não fornecer níveis de detalhe suficientes para a detecção de variações mais sensíveis da atividade fotossintética, além de uma resolução temporal que não atende as necessidades de todas as lavouras. Os parâmetros agronômicos usados em Agricultura de Precisão normalmente são medidos em solo, de forma manual. A biomassa, por exemplo, é uma estimativa importante para o monitoramento da saúde da cultura e está relacionada diretamente com um bom gerenciamento de nutrientes e de recursos, auxiliando na prática de gerenciamento da agricultura. Porém, atualmente a biomassa é medida de forma manual, necessitando a coleta de amostras da cultura através de corte da planta, e posteriormente secando para então pesar. Este é um processo demorado e custoso, e muitas vezes impraticável, tendo em vista o tamanho das lavouras. Com o surgimento de VANTS – Veículo Aéreo Não Tripulado, aliado a um sensor de aquisição de imagens, tem-se uma plataforma de aquisição de dados agronômicos, gerando imagens com uma melhor resolução espacial de alguns centímetros para cada pixel. Aliado a esta tecnologia, é possível o desenvolvimento de algoritmos para a extração de informações de forma automática, permitindo o monitoramento das plantações num menor espaço de tempo e de forma mais robusta. Este trabalho tem como objetivo correlacionar a biomassa usando processamento digital de imagens através de imagens adquiridas com VANT. Para isso, um VANT de asa rotativa com uma câmera fotográfica multiespectral é usado para realizar a aquisição das imagens. As imagens são geradas em canais: RGB, RED, GREEN, NIR, RED EDGE e com isso pode-se calcular diversos índices de vegetação. Estes índices são correlacionados com a Biomassa, que por fim estão relacionados diretamente com a vigorosidade da cultura. A cultura analisada neste trabalho foi o trigo. Os resultados demonstram que é possível estimar de forma automática a biomassa através do cálculo dos índices obtidos em imagens multiespectrais, fornecendo ao produtor parâmetros que possam auxiliar na melhora do desempenho da produção.
  • Bio:

05 October
Click for more details


  • Palestrante: Fernando Osório (USP-SC)
  • Resumo: Os sistemas de visão 2D, baseados em câmeras monoculares, permitem a captura de cenas e imagens representadas por bitmaps (X,Y + Intensidade/RGB). Por outro lado, o mundo em que vivemos e no qual estamos inseridos é usualmente descrito e representado em 3D (X,Y,Z). Inspirados no sistema visual humano, podemos trabalhar com sistemas de visão artificial baseados em câmeras binoculares (Visão Estéreo), ou, através do movimento de uma câmera monocular (Structure from Motion), e assim criar sistemas de percepção 3D. Além disto, é possível também adquirir dados de percepção 3D baseados em tecnologias Laser (LIDAR/Time-of-Flight) e em padrões de luz estruturada, a exemplo da técnica adotada em sensores como o Kinect da Microsoft. A percepção 3D (e.g. Stereo Cameras, Structure from Motion, LIDAR/ToF, Structured Light) permite a aquisição de dados a serem representados em mapas de profundidade (X,Y+Depth ou RGB-Depth) e Point Clouds (X,Y,Z), com importantes aplicações na robótica e em veículos inteligentes. Os desafios da área de percepção 3D envolvem a aquisição, calibragem dos sensores, e posterior estimação da profundidade dos elementos da cena. Nesta palestra iremos discutir sobre estes diferentes métodos de percepção 3D, e os processos envolvidos na estimação de profundidade, apresentando e analisando as diferentes abordagens de aquisição de dados 3D, seus desafios, pesquisas e aplicações junto a robótica móvel inteligente.
  • Bio: O Prof. Fernando Osório é graduado e mestre em Ciência da Computação pela UFRGS - II / PGCC, e doutor em Computação pelo Institut National Polytechnique de Grenoble (INPG/IMAG) na França em 1998, na área de Sistemas Inteligentes. Atualmente é professor e pesquisador do Departamento de Sistemas de Computação (SSC) do ICMC-USP (USP São Carlos), desde 2008, atuando no mestrado e doutorado junto a Pós-Graduação do CCMC do ICMC-USP. É coordenador do Curso Inter-Unidades de Engenharia de Computação do ICMC/EESC USP São Carlos. Membro ativo de associações ACM, IEEE e SBC, onde na SBC é o Coordenador/Gestor da CER (Comissão Especial de Robótica 2014-2018), tendo contribuído para a criação do IEEE RAS (Robotics and Automation Society) South-Brazil Chapter em 2015. Publicou mais de 30 artigos em periódicos e mais de 150 trabalhos em anais de eventos e livros. É membro do conselho diretor do CRob-SC/USP (Centro de Robótica da USP de São Carlos). Atuou na organização de importantes conferências nacionais e internacionais, destacando-se o IEEE LARS-SBR 2014, 2015, 2016 e 2017. Atua em projetos de Robótica Inteligente e Veículos Autônomos junto ao LRM - Laboratório de Robótica Móvel do ICMC-USP: http://www.lrm.icmc.usp.br/
  • Palestrante: José Gabriel Rodríguez Carneiro Gomes (UFRJ)
  • Resumo: Desde o começo dos anos 90, sensores de imagem baseados em tecnologia de fabricação CMOS (complementary metal-oxide silicon) vêm se apresentando como alternativas viáveis aos sensores de imagem baseados em CCDs (charge-coupled devices). Isso acontece principalmente porque a tecnologia de fabricação CMOS é de baixo custo, amplamente difundida, e porque alterações relativamente pequenas no processo de fabricação permitiram que a qualidade das imagens obtidas com pixels CMOS se igualasse à qualidade das imagens obtidas com CCDs. Nesta apresentação, é feito um breve resumo do desenvolvimento histórico dos sensores de imagem CMOS. São mostrados diferentes tipos de pixels e a operação de cada um deles é explicada detalhadamente. Por último, nota-se que transistores iguais aos que já são utilizados dentro de cada pixel podem ser empregados para a realização de tarefas de processamento de sinais que vão além da simples captura de imagens, abrindo espaço para o desenvolvimento de sensores de imagem CMOS com funções de processamento de imagens realizadas em hardware.
  • Bio: José Gabriel R. C. Gomes é formado em Engenharia Eletrônica pela UFRJ (1999) e obteve o Mestrado em Engenharia Elétrica pela COPPE/UFRJ (2000) e pela Universidade da California em Santa Barbara (UCSB, 2003). Ele obteve o seu Doutorado, também em Engenharia Elétrica, pela UCSB (2004). Em 2005, ele foi um pesquisador de pós-doutorado na COPPE/UFRJ. Em 2006, juntou-se ao corpo docente do Departamento de Engenharia Eletrônica e de Computação da Escola Politécnica da UFRJ, onde é atualmente Professor Associado. Também é, desde 2007, Professor Pleno do Programa de Engenharia Elétrica da COPPE/UFRJ. Ele tem experiência em instrumentação eletrônica, com ênfase em sensores de imagem CMOS, compressão de imagens e redes neurais. É membro do IEEE desde 2001.
  • Palestrante: Carla L. Pagliari (IME-RJ)
  • Resumo: O streaming adaptativo fornece uma flexibilidade ao consumidor que nem as TVs abertas, nem as por assinatura conseguem. O conceito de se poder assistir a uma enorme seleção de conteúdos multimídia a qualquer hora e em qualquer lugar (anytime anywhere) com diferentes dispositivos é muito atraente. Entretando, há muitos desafios que são analisados nesta palestra.
  • Bio: Possui doutorado em Electronic Systems Engineering - University of Essex (1999), Inglaterra e atualmente é professora do Instituto Militar de Engenharia. Tem experiência na área de Engenharia Elétrica, com ênfase em Processamento de Imagens, atuando principalmente nos seguintes temas: codificação de vídeo, sistemas estéreo e multi-vistas, video streaming, fusão de imagens/vídeo, imagens plenópticas e TV digital. Participou da definição do Sistema Brasileiro de Televisão Digital na parte da recomendação de adoção do codec de vídeo H.264. É integrante da Diretoria de Ensino da Sociedade de Engenharia de Televisão-SET. Tem projetos nas áreas de fusão de imagens na região do infra-vermelho, vídeo sobre IP para aplicações em segurança pública e TV digital.
  • Palestrante: José Gabriel Rodríguez Carneiro Gomes (UFRJ)
  • Resumo: Nos anos 90, grupos de pesquisa em universidades de todo o mundo iniciaram pesquisas sobre o uso dos transistores disponíveis em processos de fabricação CMOS (complementary metal-oxide silicon) para a realização de tarefas de processamento de imagens em hardware, dentro do mesmo chip responsável pela captura da imagem propriamente dita. Para fazer referência ao processamento de sinais, em hardware, dentro do próprio sensor de imagens, surgiu a expressão "processamento de imagens no plano focal". Quando se implementa no plano focal algumas tarefas que seriam convencionalmente realizadas em um processador digital externo ao sensor de imagens, tipicamente são obtidas redução nos requerimentos de banda passante e simplficação no hardware para a comunicação entre o sensor de imagens e o exterior, além da redução da complexidade do sistema. Alguns módulos de armazenamento ou de processamento digital podem ser eliminados. Nesta apresentação, são apresentados alguns exemplos de sistemas e aplicações envolvendo processamento de imagens no plano focal. As funcionalidades mencionadas incluem filtragem espacial ou temporal, conversão analógico-digital, compressão de dados, detecção de objetos e reconhecimento de padrões.
  • Bio: José Gabriel R. C. Gomes é formado em Engenharia Eletrônica pela UFRJ (1999) e obteve o Mestrado em Engenharia Elétrica pela COPPE/UFRJ (2000) e pela Universidade da California em Santa Barbara (UCSB, 2003). Ele obteve o seu Doutorado, também em Engenharia Elétrica, pela UCSB (2004). Em 2005, ele foi um pesquisador de pós-doutorado na COPPE/UFRJ. Em 2006, juntou-se ao corpo docente do Departamento de Engenharia Eletrônica e de Computação da Escola Politécnica da UFRJ, onde é atualmente Professor Associado. Também é, desde 2007, Professor Pleno do Programa de Engenharia Elétrica da COPPE/UFRJ. Ele tem experiência em instrumentação eletrônica, com ênfase em sensores de imagem CMOS, compressão de imagens e redes neurais. É membro do IEEE desde 2001.
  • Palestrante: Cesar Pozzer (UFSM)
  • Resumo: A manipulação de imagens grandes de satélite traz desafios computacionais tanto em relação a desempenho como uso de memória. Nessa palestra será apresentado o desenvolvimento de aplicativos em C# para o processamento e visualização de imagens de satélite em uma mesa tática para simulação militar virtual. Serão apresentados conceitos de GIS, algoritmos e soluções utilizadas de processamento de imagens utilizados no desenvolvimento da solução. O problema em questão consistiu em transformar um conjunto de fotos de satélite em uma única imagem de 8 GigaPixels que possa ser manipulada em tempo real em hardware convencional.
  • Bio: Graduado em Informática pela UFSM em 1998. Mestre em Informática pelo ITA (Instituto Tecnológico de Aeronáutica) em 2000. Doutor em Informática pela PUC-Rio (Pontifícia Universidade Católica do Rio de Janeiro) em 2005. Desenvolveu estudos em renderização gráfica em tempo real, técnicas de Inteligência Artificial, Storytelling interativo e desenvolvimento de Jogos. Em 2005 ingressou como professor Adjunto na UFSM (Universidade Federal de Santa Maria). Nesta instituição, trabalha ativamente em graduação e pós-graduação. Leciona disciplinas de programação, Computação Gráfica, Inteligência Artificial para Jogos e Desenvolvimento de Jogos. Desde 2012 trabalha na modernização e criação de um ambiente virtual de simulação viva militar para o DSET (dispositivo de engajamento tático modelo BT-41 fabricado pela Saab), junto ao CIBld (Centro de Instrução de Blindados) em Santa Maria. Desde 2013 vem desenvolvendo um simulador virtual em conjunto com o CTISM, objetivando a criação de uma ferramenta didática interativa para ensino de eletropneumática. Este projeto envolve pesquisas em computação gráfica, simulação e grafos. No ano de 2014 realizou Pós-doutorado na Suécia, em parceria com a Saab, na Universidade de Skövde, na área de computação imprecisa aplicada na simulação da movimentação de veículos em ambientes complexos. Desde 2015 participa do projeto militar Astros 2020, no desenvolvimento de um simulador virtual para adestramento de militares, com uso de Inteligência Artificial, Computação Gráfica, Simulação, Processamento de Imagens e Jogos. É também autor/orientador de diversos trabalhos de iniciação científica e de diversos artigos publicados em eventos e periódicos envolvendo temas ligados à computação gráfica, jogos, Storytelling interativo e Simulação.
  • Palestrante: Edison Pignaton de Freitas (UFRGS) - coordenador
  • Resumo: Nesta seção serão realizadas apresentações de quatro empresas que utilizam processamento de imagens em seus produtos ou serviços, e/ou que proveem produtos ou serviços de suporte à área de processamento de imagens. As empresas convidadas e seus representantes são:
    AEL Sistemas (Fernando Dutra);
    Macnica DHW (Cláudio Artur Dhein);
    Skydrones (Carlos Hennig);
    Ponfac (Moises Pontremoli).
  • Bio:

06 October
Click for more details


  • Palestrante: Fernando Osório (USP-SC)
  • Resumo: O uso de técnicas de Aprendizado de Máquinas (Machine Learning) e de Redes Neurais Artificiais (Neural Nets) em aplicações de Visão Computacional não é algo novo, porém os recentes resultados obtidos com as "Redes Profundas de Aprendizado" (Deep Learning) são surpreendentes. Deep Learning tem sido pesquisado e aplicado em diferentes tarefas, como por exemplo, segmentação de imagens, reconhecimento de objetos, detecção de pedestres e carros - entre outros elementos - em aplicações de veículos inteligentes, leitura labial, detecção de doenças (p.ex. câncer de pele), entre muitas outras aplicações de sucesso. Várias ferramentas de suporte a pesquisa e ao desenvolvimento de sistemas de Deep Learning estão disponíveis na atualidade, porém, uma delas tem se destacado: o TensorFlow. Nesta palestra vamos discutir sobre a evolução das redes neurais em direção aos sistemas de Deep Learning, e as aplicações possíveis de serem desenvolvidas com este tipo de abordagem de Machine Learning, fazendo uso do TensorFlow. Um outro item importante que será abordado é o fato de que o Deep Learning está intimamente ligado a exploração de paralelismo em hardware, seja no treinamento das redes (com o uso de GPUs), ou seja no uso das redes já treinadas (reconhecimento de padrões), que pode ser implementado em arquiteturas que explorem o paralelismo intrínseco das redes e das aplicações de processamento de imagens e visão computacional.
  • Bio: O Prof. Fernando Osório é graduado e mestre em Ciência da Computação pela UFRGS - II / PGCC, e doutor em Computação pelo Institut National Polytechnique de Grenoble (INPG/IMAG) na França em 1998, na área de Sistemas Inteligentes. Atualmente é professor e pesquisador do Departamento de Sistemas de Computação (SSC) do ICMC-USP (USP São Carlos), desde 2008, atuando no mestrado e doutorado junto a Pós-Graduação do CCMC do ICMC-USP. É coordenador do Curso Inter-Unidades de Engenharia de Computação do ICMC/EESC USP São Carlos. Membro ativo de associações ACM, IEEE e SBC, onde na SBC é o Coordenador/Gestor da CER (Comissão Especial de Robótica 2014-2018), tendo contribuído para a criação do IEEE RAS (Robotics and Automation Society) South-Brazil Chapter em 2015. Publicou mais de 30 artigos em periódicos e mais de 150 trabalhos em anais de eventos e livros. É membro do conselho diretor do CRob-SC/USP (Centro de Robótica da USP de São Carlos). Atuou na organização de importantes conferências nacionais e internacionais, destacando-se o IEEE LARS-SBR 2014, 2015, 2016 e 2017. Atua em projetos de Robótica Inteligente e Veículos Autônomos junto ao LRM - Laboratório de Robótica Móvel do ICMC-USP: http://www.lrm.icmc.usp.br/
  • Palestrante: Yong Yan (University of Kent)
  • Resumo: This presentation will review the recent advances in digital imaging based instrumentation and measurement for industrial monitoring applications. The fundamental principle and basic elements of vision-based instrumentation and measurement systems will be introduced. Case studies that are covered in this presentation include burner flame monitoring, characterisation of single fuel particle combustion and on-line particle size measurement. Advances in other areas such as food grain identification and rotational speed measurement will also be reported.
  • Bio: Professor Yong Yan is currently the Head of Instrumentation, Control and Embedded Systems Research Group and Director of Research of the School of Engineering and Digital Arts at the University of Kent, Canterbury, UK. He has published more than 150 papers in scientific journals. His h-index is 38 with over 4500 citations. In recognition of his contributions to pulverised fuel flow metering and flame imaging, Prof. Yan was named an IEEE Fellow in 2011. He is the first IEEE Fellow in the UK in the field of instrumentation and measurement. He has been a Distinguished Lecturer of the IEEE Instrumentation and Measurement Society since 2012. His main areas of expertise are in sensors, instrumentation, measurement, condition monitoring, digital image processing, digital signal processing, and applications of artificial intelligence.
  • Palestrante: Eduardo R Zimmer (UFRGS)
  • Resumo: A doença de Alzheimer (DA) é a principal causa de demência no mundo, afetando cerca de 45 milhões de pacientes. Avanços recentes no desenvolvimento de biomarcadores medidas biológicas capazes de identificar e monitorar processos patológicos ajudaram a redefinir a fisiopatologia da DA. Estes biomarcadores têm sido utilizados em grandes estudos clínicos e em diversos estudos experimentais em modelos animais, fornecendo um grande banco de dados com o potencial de refinar o entendimento da DA e alavancar um diagnóstico precoce. Nesta palestra, abordaremos as principais características da DA e o potencial uso de ferramentas multidisciplinares no estudo da DA
  • Bio: O Dr. Eduardo R. Zimmer é formado em farmácia e mestre, doutor e pós-doutor em Bioquímica pela Universidade Federal do Rio Grande do Sul (UFRGS). Durante o doutorado, trabalhou dois anos no McGill Centre for Studies in Aging em Montreal no Canadá com análise de imagens cerebrais obtidas por Tomografia de Emissão de Pósitrons. Atualmente, é Professor colaborador da Departamento de Bioquímica da UFRGS e Pesquisador Associado do Instituto do Cérebro do Rio Grande do Sul. Seu laboratório combina ferramentas multidisciplinares em estudos translacionais focados no entendimento, diagnóstico precoce e desenvolvimento de estratégias terapêuticas na Doença de Alzheimer.
  • Palestrante: Edson Prestes (UFRGS)
  • Resumo: There is a consensus that robots will co-exist with humans. They will assist humans in a myriad of ways in several environments acting as personal assistants, co-workers in factories, sexual partners and so on. This fact raises several questions: will they be aligned to the values of the society where they will be inserted? Will they impact positively people lives? What the main ethical issues we should consider in the development of these robots? Is it possible to create ethically driven robotics and automation systems? This talk aims to give an overview about the main issues debated worldwide and discuss how to address them in the context of the work conducted in the IEEE P7007 Ontological Standard for Ethically Driven Robotics and Automation Systems Working Group. This group targets to create a standard to be used in multiple ways, for instance, during the development of Robotics and Automation Systems as a guideline; or as a reference "taxonomy" to enable a clear and precise communication among members from different communities that include Robotics and Automation, Ethics and correlated areas of expertise.
  • Bio: Edson Prestes received his B.Sc. degree in Computer Science(CS) from the Federal University of Pará (UFPa), Brazil, in 1996 and M.Sc. and Ph.D. in CS from the Federal University of Rio Grande do Sul (UFRGS), Brazil, in 1999 and 2003, respectively. Actually, Edson is Professor at UFRGS, since 2005, CNPq Productivity Fellow and Head of ϕ-Robotics Research Group. Edson is IEEE Senior Member and has active participation in the IEEE Robotics and Automation Society (IEEE RAS) and IEEE Standards Association (IEEE SA) as chair of the IEEE RAS/SA P7007 - Ontological Standard for Ethically Driven Robotics and Automation Systems Working Group; vice-chair of the IEEE RAS Ontologies for Robotics and Automation Working Group (ORA WG); member of the Affective Computing Committee in the IEEE-SA The Global Initiative for Ethical Considerations in the Design of Autonomous Systems; member of the How to Imbue Ethics/Values into Autonomous and Intelligent Systems in the IEEE-SA The Global Initiative for Ethical Considerations in the Design of Autonomous Systems; member of the IEEE SA P7001-Transparency of Autonomous Systems; member of the IEEE RAS Robot Task Representation Working Group; member of the IEEE RAS Autonomous Robotics working group member; advisory committee member of the IEEE RAS Standing Committee for Standards Activities; advisory Committee Member of the IEEE RAS Special Interest Group on Humanitarian Technology; Founding Chair, IEEE South Brazil RAS Chapter; past vice-chair of IEEE RAS Standing Committee for Standards Activities. In 2015, IEEE Standards Association approved the P1872 (Standard for Ontologies for Robotics and Automation) document, elaborated by ORA WG, as a new IEEE Standard. This is the first standard elaborated by IEEE Robotics and Automation Society! Also in 2015, ORA WG won the prize the IEEE-SA Emerging Technology Award. This standard is cited in *The National Artificial Intelligence Research and Development Strategic Plan* (pag. 32) elaborated by the US White House in 2016. Among Edson's achievements, he co-organized the book *Robótica Móvel* that has won the Jabuti Award in the category Engenharias, Tecnologias e Informática. This award is the most important and stablished literary Award in Brazil. In addition, Edson was guest editor of special issue "Ubiquitous Robotics" in Robotics and Autonomous Systems Journal/Elsevier; guest editor of special issue "Knowledge Driven Robotics and Manufacturing" for the Elsevier Robotics and Computer Integrated Manufacturing Journal; co-chair of the Workshop on “Standardized Knowledge Representations and Ontologies for Robotics and Automation” at IEEE/RSJ IROS 2014, co-chair of the Workshop on "Robotics & Automation Technologies for Humanitarian Applications: Where we are & Where we can be" at IEEE ICRA 2015, and one of the organizers of IEEE-RAS Humanitarian Robotics and Automation Technology Challenge at IEEE ICRA since 2014.
  • Palestrante: João Paulo Carvalho Lustosa da Costa (UnB)
  • Resumo: Multidimensional array signal processing has been applied in several fields such as image processing, telecommunications, audio, EEG, RADAR and SONAR. By exploiting the multiple dimensions of a tensor data, advantagens, such as increased identifiability, seperation without assuming additional constraints and improved accuracy can be achieved. A color image is an example of a third order tensor, since there are two spatial indices represent the spatial variables and an additional one stands for the color mode. In case of video of color images, the data has a four dimensional structure, since the time dimension is included. In this presentation, applications of tensors in image processing are overviewed.
  • Bio: João Paulo Carvalho Lustosa da Costa received the Diploma degree in electronic engineering in 2003 from the Military Institute of Engineering (IME) in Rio de Janeiro, Brazil, his M.Sc. degree in telecommunications in 2006 from University of Braslia (UnB) in Brazil, and his Doktor-Ingenieur (Ph.D.) degree with Magna cum Laude in electrical and information engineering in 2010 at Ilmenau University of Technology (TU Ilmenau) in Germany. Since 2010, he is an Electrical Engineering professor with UnB where he coordinates the Laboratory of Array Signal Processing (LASP).
  • Palestrante: Sessão Técnica II
  • Resumo: Monocular Visual Odometry With Cyclic Estimation
    Ph.D. Candidate: Fabio Irigon Pereira (PGMICRO-UFRGS)
    Abstract:Monocular Visual Odometry (MVO) estimates the camera position and orientation, based on images generated by a single camera. This presentation shows a new sparse MVO system for camera equipped vehicles. Three view cyclic Perspective-n-Point with adaptive threshold is used for camera pose estimation, perspective image transformations are used to improve tracking, and a multi-attribute cost function selects ground features for scale recovery. Results using the KITTI dataset show that the proposed system achieves 1.29% average translation error and average rotation precision of 0.0029 degrees per meter.
    ********
    SW/HW codesign for Monocular Structure from Motion
    Ph.D. Candidate: Gustavo Ilha (PPGEE-UFRGS)
    Abstract:Monocular Structure from Motion recovers the surrounding scene based on a sequence of images and the camera movement. A software-hardware codesign is been developed in order to identify the surrounding environment from images generated by a single camera (monocular), handling the huge amount of data and respecting time limits accordingly. Firstly, the optical flow is calculated, then the parallax of tracked points are calculated between multiple frames and its depth is estimated. Lastly, those points are added to the point cloud. Some preliminary results using the challenging KITTI dataset are avaliable.
    **************
    Title: Pruning and Approximation of Coefficients for Power-Efficient 2-D Discrete Tchebichef Transform
    Ph.D. Candidate: Guilherme P. Paim (PGMICRO-UFRGS)
    Abstract:Due to the intensive use of the discrete transforms in picture coding, the search for fast and power-efficient approaches for their hardware implementation gains importance. The DTT (Discrete Tchebichef Transform) represents a discrete class of the Chebyshev orthogonal polynomials and it is an alternative for the DCT (Discrete Cosine Transform), commonly used in picture coding. High energy compaction, and decorrelation are the main properties of the DTT. The state-of-the-art approximate DTT matrix is composed of 0, 1 -1, 2, -2 values. In this work, we propose a new approximation for the integer DTT, with better quality and power-efficiency exploring truncation, whose values are 1/16, -1/16, 1/8, -1/8. Considering operations with integers, the smaller values of coefficients causes truncation in the internal transform calculations and lead to lower values for the non-diagonal residues, which reduces non-orthogonality. We have also selectively pruned the rows of the state-of-the-art approximate DTT matrix. The results show that the proposed pruned approximate DTT hardwired solutions increases the maximum frequency about 10.78%, minimizes cells area by 50.2%, with savings up to 55.9% of power dissipation with more compression ratio and less quality loss.
  • Bio:

Update at 29/09

CALL FOR POSTER

INSTRUCTIONS

A poster session will be held in the first day of the 2017 CASS School on Image Digital Processing of Visual Signals and Applications. Graduate and undergraduate students are invited to showcase their research on Image and Video Processing and Applications, including (but not limited to) the topics covered by the CASS School.


SUBMISSION FORMAT AND DEADLINES

Authors must submit an A4-sized (WxH = 210 mm x 297 mm) copy of the proposed poster for the review process through the EasyChair system, along with a 200-word abstract:

Link for EasyChair

Submissions are due September 17, 2017, 11:59 PM Brazilian Summer Time (GMT-2).
Note that this is a hard deadline! No extension will be granted.


POSTER PRESENTATION GUIDELINES

For each presentation, one poster board in portrait orientation will be reserved. Posters must be printed by the authors in A1 size (WxH = 594 mm x 841 mm).

LOCATION

Universidade Federal do Rio Grande do Sul - Instituto de Informática
Anfiteatro do Centro de Eventos, Prédio 43413 (antigo 67)
Campus do Vale, Porto Alegre - Rio Grande do Sul, Brazil.

REGISTRATION

The CASS School has the support of the "Circuits and Systems Society" of the IEEE. Participants attending 75% or more of the activities will receive a certificate.

TThe School is also framed as a graduate course with 20 vacancies. Graduate and undergraduate students who wish to get one academic credit or certificate must register at PGMicro, attend 75% of the activities or more an pass the assessment. To register, fill the this form and send a digitized copy to "pgmicro@inf.ufrgs.br". If you are not UFRGS student, please provide also copy of CPF and RG. Limit date: 29/10/2017.

Link for Form

Member of CAS Society
I will register to earn an academic credit. Limited positions.

Required (*)