Um dos formatos de imagem mais famosos é o HDR (High Dynamic Range). Ele é famoso porque consegue concentrar em si, num único arquivo a variação de luminosidade de um mesmo ambiente (real ou virtual). A própria definição do nome "Dinamic Range" é utilizado como representação dos valores contidos entre os menores e maiores valores possíveis de serem representados.
Na prática isso significa que você pode concentrar a variação de luminosidade de várias imagens em apenas um arquivo. E, de forma mais direta ainda, imagine salvar as informações de luminosidade de todas as fotos abaixo em apenas um arquivo. Pois é exatamente isso que o HDR faz.
Você pode estar então se perguntando: Qual é vantagem disso? A resposta para esta pergunta é: se você consegue representar a variação de luminosidade de um ambiente em uma imagem, você pode utilizar as informações de luminosidade contidas na imagem para iluminar quaisquer coisas no mundo virtual. Resultando assim numa iluminação virtual idêntica ao que você possui no mundo real sem que seja necessário utilizar as luzes digitais dos programas como o Blender, por exemplo.
Este é o motivo principal que você, vez ou outra, quando assiste a making ofs encontra o pessoal com umas esferas reflexivas em cena. As esferas conseguem refletir para as câmeras que as fotografam todas as luzes que incidem sobre ela no limite de até 180 graus.
Ou seja, todas as luzes presentes no ambiente que você irá posicionar o seu personagem ou cenário ou objeto de cena estarão presentes sobre a esfera no limite compreendido nestes 180 graus. E os outros 180? Você bate mais uma fotos da esfera com a câmera posicionada na posição oposta às primeiras fotos.
As empresas de efeitos visuais possuem pessoas encarregadas de obter as diferentes fotos com diferentes informações de luminosidade de cada ambiente que será reproduzido digitalmente o que possibilita que os efeitos sejam ainda mais convincentes.
Programas como o GIMP e o Photoshop possuem recursos que fazem a "conversão" das diferentes fotos em imagens HDR (sem o formato das esférico) e que nós podemos usar nos programas com suporte ao HDR.
Um recurso tão poderoso que imagens simples conseguem impressionar pela verossimilidade que possuem se fossem criadas no mundo real. Observe a imagem abaixo que eu fiz numa aula para meus alunos da UFMG.
Interessante, não. Vale lembrar que a cena não possui nenhuma outra fonte de iluminação que não seja a imagem HDR. Dá para vê-la refletida das esferas.
Agora, a novidade é o que está sendo apresentado na SIGRAPH deste ano. Imagine todo o benefício das imagens estáticas do HDR aplicados não mais a imagens estáticas, mas sim a vídeos. Com qual finalidade?
Imagine que no seu cenário inicialmente não havia um carro e que a sua animação teria que intervir com o movimento dele que entra na cena num determinado momento. E que, obviamente, o carro ao entrar em cena absorve, reflete ou muda a direção de parte dos raios de luz que estavam presentes na cena antes que ele entrasse, certo?
Isso, numa HDR estática é muito mais trabalhoso, pois o pessoal responsável pela obtenção das imagens estáticas tem que se virar para obtê-las. Se pudermos conseguir isso a partir de um vídeo o problema do carro se movimentando deixa de existir.
Foi pensando assim que surgiu o HDRv (o "v" é de vídeo). Veja o vídeo abaixo!
As sequências de imagens são capturadas usando um sistema que foi desenvolvido com a colaboração entre a fabricante de câmeras SpheronVR e o grupo "Computer Graphics and Image Processing" da Universidade de Linköping na Suécia.
As câmeras criadas para isso possuem a capacidade de 4Mpixel para cada imagem. A resolução é de 2336 x 1752 (dois mil trezentos e trinta e seis pixels de largura por mil setecentos e cinquenta e dois pixels de altura) e podem ser capturados até 30 imagens por segundo numa variação de luminosidade de até 24 f-stops. Para você ter uma ideia, a imagem Full HD do Bluray, o sucessor do DVD, é de 1920 x 1080. Parece então que é muita resolução, certo? Errado.
As câmeras criadas para isso possuem a capacidade de 4Mpixel para cada imagem. A resolução é de 2336 x 1752 (dois mil trezentos e trinta e seis pixels de largura por mil setecentos e cinquenta e dois pixels de altura) e podem ser capturados até 30 imagens por segundo numa variação de luminosidade de até 24 f-stops. Para você ter uma ideia, a imagem Full HD do Bluray, o sucessor do DVD, é de 1920 x 1080. Parece então que é muita resolução, certo? Errado.
Uma tela padrão IMAX tem 22 metros de largura e 16,1 metros de altura. Isso corresponde a uma tela do tamanho de um prédio de mais de cinco andares de altura e a um prédio de mais de sete andares de largura. O que significa na prática que a resolução da imagem para uma tela tão grande oscila entre pelo menos 2K e 4K. Considerando que 1K equivale a 1024 linhas na horizontal, 4K seriam então 4096 linhas na horizontal de resolução.
Fazendo agora a correspondência de 2336 (da câmera do HDRv) para os 4096 (do IMAX) ainda falta quase que 2K de resolução. Entretanto, não pensemos nós que isso é uma falha, mas lembremos, sim, que o projeto está sendo apresentado numa feira de tecnologia, a SIGRAPH. O que pode representar que ele apenas trilhou os bons primeiros passos. Ainda não se sabe o que disso podemos vir a ter num futuro próximo.
Além disso a resolução apresentada de 2236 x 1752 é mais do que suficiente para uma boa parte do público consumidor. Você quer ter uma ideia? Seu monitor de computador, por exemplo, se ele for aquilo que muitos hoje estão querendo, que é o formato Full HD (1920 x1080), ele permanecerá sem ser maior que o formato obtido pela empresa e pela universidade. O Full HD é um formato recém introduzido no mercado e milhares e milhares de brasileiros sequer possuem TV de alta definição.
Já tendo explanado tudo isso vejamos então mais alguns vídeos com o uso do HDRv. O primeiro vídeo mostra como são as imagens capturadas pela câmera. Observe!
O segundo mostra a captura de uma sequência de imagens (à esquerda) e a aplicação delas com objetos digitais (à direita)
O terceiro mostra uma aplicação direta com um teste realizado no meio da rua.
O segundo mostra a captura de uma sequência de imagens (à esquerda) e a aplicação delas com objetos digitais (à direita)
O terceiro mostra uma aplicação direta com um teste realizado no meio da rua.
Links relacionados
Nenhum comentário:
Postar um comentário