Neste tutorial do Blender Nerd você vai aprender a criar o efeito de câmera Push-pull (também conhecido como efeito vertigem).
quinta-feira, 30 de junho de 2011
quarta-feira, 29 de junho de 2011
Add-on - Biblioteca de materiais para o Blender
Este add-on cria uma biblioteca de materiais que pode ser usada em quaisquer arquivos. Acompanhe os vídeo e faça a sua.
Etiquetas:
materiais
Add-on - Python para o Blender
Uma das coisas que muitos costumam fazer cara feia no Blender é o Python que é a linguagem de programação que gera, entre outras coisas, os nossos Add-ons... o Juraj Michalek criou vídeos que auxiliam os usuários Blender a darem os primeiros passos nesse mundo. Acompanhe!
Etiquetas:
add-on
Blender 2.58 - Recurso novo - Camera Lock
Mais uma ajuda do Allan Brito que trouxe um vídeo mostrando como utilizar um dos novos recursos do Blender 2.58, o recurso é o Camera Lock.
Etiquetas:
camera
sexta-feira, 24 de junho de 2011
Conhecimento base - Desenho animado e imagens em camadas
Quando era pequeno eu gostava, como centenas de milhares hoje também gostam, de Desenhos Animados. E alguns até dizem que eu ainda não cresci. Talvez estas pessoas estejam certas, mas principalmente quanto a um aspecto em particular... Eu cresci gostando de muitas coisas que eu já gostava quando era garoto. E desenho animado é uma delas.
De forma análoga a muitos durante a minha infância eu queria saber como é que as pessoas faziam para dar movimentos aos desenhos até porque os que eu fazia em casa permaneciam parados. Se você pensou algo semelhante, não se preocupe, eles não tem que se mexer na folha mesmo não.
O que ocorre é que nossos olhos possuem um recurso (alguns chamam de deficiência) que faz com que uma imagem fique em nossa memória visual por alguns instantes. Este recurso é chamado de persistência retiniana ou persistência da visão. Assim, a retina possui o recurso para reter uma imagem por cerca de 1/20 à 1/5 segundos após o seu desaparecimento dos olhos, ou seja, é a fração de segundo em que a imagem permanece na retina.
É este recurso que nos permite assistir a filmes sejam eles de animação ou não (os chamados live action). Isso ocorre porque no cinema o projetor está exibindo para nós 24 imagens por segundo. Isso mesmo, no cinema nós temos para cada segundo de filme (de animação ou não) 24 imagens que são projetadas para os nossos olhos. É tão rápido que o nosso cérebro não percebe que elas trocaram.
Estas imagens quando representam parte de um movimento são bem parecidas umas com as outras o que nos dá a impressão de que são a mesma imagem, mas não são. Observe abaixo a sutil diferença entre uma pose e outra. Simplificando ao máximo, o que os animadores fazem é criar esta diferença entre as imagens.
Agora observe abaixo que, quando as exibimos para você, trocando-as rapidamente de uma para a outra, seus olhos não conseguem perceber que há a troca. A não percepção do movimento pode representar alguma deficiência visual.
Agora observe abaixo que, quando as exibimos para você, trocando-as rapidamente de uma para a outra, seus olhos não conseguem perceber que há a troca. A não percepção do movimento pode representar alguma deficiência visual.
Sabendo agora que a animação no cinema tem 24 imagens (que nós chamamos de fotogramas ou quadros ou frames quando o termo está em inglês) diferentes, significa que para um filme de uma hora teremos pelo menos 129.600 fotogramas diferentes. Se um personagem permanecesse na tela durante todo o tempo de duração do filme o(s) animador(es) teria(m) que criar todas as cento e vinte nove mil e seiscentas imagens diferentes. É bastante trabalho, não?
Agora para que possamos entender melhor o que é animação vale recorrer à origem do termo "Anima" que quer dizer "dar alma a". Isso também significa que animar não é (ou ao menos não precisaria ser) simplesmente mover algo de um lugar para o outro.
Originalmente a animação surgiu sem que trabalhasse com camadas. Ou você realmente pensou que os criadores do Photoshop é que tiveram esta brilhante ideia? Claro que não. As camadas na animação, como dizia antes, não eram utilizadas como foi o caso do filme abaixo "Gertie a dinossauro" (Gertie the Dinosaur, EUA, 1914) com direção de Winsor McCay, onde todo o cenário teve que ser redesenhado a cada fotograma de forma idêntica à própria Gertie.
O registro das camadas na animação é datado no mesmo ano de 1914 "...quando é patenteada aquela que efetivamente foi a maior contribuição técnica para a animação tradicional até o advento da computação gráfica: o desenho sobre folhas de celulóide transparente – No Brasil, vulgarmente chamada de acetato. Essa inovação coube ao animador norte-americano Earl Hurd" (BARBOSA JÚNIOR, 2005, p. 66). Com isso o animador passou a poder separar cada personagem num celulóide diferente e o cenário também em outro celulóide diminuindo o prejuízo em caso de erro de algum desenho e acelerando a produção.
Duas décadas depois surge a profundidade no desenho animado com a câmera multi-plano desenvolvida por muitos profissionais da animação e aperfeiçoada pela empresa de Disney. Assista ao vídeo abaixo e veja o funcionamento daquela que a Disney ajudou a aperfeiçoar.
A primeira animação criada pela Disney com uso do equipamento foi o curta-metragem "O velho moinho" (The old mill, EUA, 1937) e que ganhou o Oscar no ano seguinte.
Como você pode ver, o que os softwares hoje fazem é dar passos mais largos e "converterem" para o digital ideias e conceitos que já foram estudados antes.
Links relacionados
Originalmente a animação surgiu sem que trabalhasse com camadas. Ou você realmente pensou que os criadores do Photoshop é que tiveram esta brilhante ideia? Claro que não. As camadas na animação, como dizia antes, não eram utilizadas como foi o caso do filme abaixo "Gertie a dinossauro" (Gertie the Dinosaur, EUA, 1914) com direção de Winsor McCay, onde todo o cenário teve que ser redesenhado a cada fotograma de forma idêntica à própria Gertie.
O registro das camadas na animação é datado no mesmo ano de 1914 "...quando é patenteada aquela que efetivamente foi a maior contribuição técnica para a animação tradicional até o advento da computação gráfica: o desenho sobre folhas de celulóide transparente – No Brasil, vulgarmente chamada de acetato. Essa inovação coube ao animador norte-americano Earl Hurd" (BARBOSA JÚNIOR, 2005, p. 66). Com isso o animador passou a poder separar cada personagem num celulóide diferente e o cenário também em outro celulóide diminuindo o prejuízo em caso de erro de algum desenho e acelerando a produção.
Duas décadas depois surge a profundidade no desenho animado com a câmera multi-plano desenvolvida por muitos profissionais da animação e aperfeiçoada pela empresa de Disney. Assista ao vídeo abaixo e veja o funcionamento daquela que a Disney ajudou a aperfeiçoar.
A primeira animação criada pela Disney com uso do equipamento foi o curta-metragem "O velho moinho" (The old mill, EUA, 1937) e que ganhou o Oscar no ano seguinte.
Como você pode ver, o que os softwares hoje fazem é dar passos mais largos e "converterem" para o digital ideias e conceitos que já foram estudados antes.
Links relacionados
IDLEWORM (site em inglês)
Livro de Alberto Lucena Barbosa Júnior
Quadro-a-quadro (site em português da Escola de Bela Artes da UFMG sobre animação)
Livro de Alberto Lucena Barbosa Júnior
Quadro-a-quadro (site em português da Escola de Bela Artes da UFMG sobre animação)
Etiquetas:
Conhecimento base
Uso do tracking do Blender
Sebastian König criou um vídeo mostrando como usar o tracking que vem sendo desenvolvido pelo Sergey Sharybin durante a Google Summer Code 2011 com quatro pontos de rastreio.
Links relacionados
Versão para testes do motion tracking
Links relacionados
Versão para testes do motion tracking
Saiu o Blender 2.58
Para quem achava que o Blender 2.57 tinha parado, ontem saiu mais uma versão com vários acréscimos, correções e melhorias em muitos dos recursos que o software traz para todos. A lista de melhorias e/ou correções está disponível neste link. E a versão já pode ser baixada no site oficial da Blender Foundation.
Bom proveito para todos!
sábado, 18 de junho de 2011
terça-feira, 14 de junho de 2011
Blender Guru - Como criar uma Terra realista
Texturização e shaders avançados são o foco principal deste tutorial. Nele você vai descobrir como:
* usar color, bump (no Blender chamado de "normal") e especular maps;
* adicionar nuvens e atmosfera;
* usar material nodes para criar luzes de cidades nas áreas escuras.
Texturas utilizadas neste tutorial:
Color Map
Bump Map
Specularity Mask
Clouds
Night Lights
Links relacionados
Arquivo finalizado
Etiquetas:
Blender Guru
domingo, 12 de junho de 2011
O que vem por aí - Motion tracking dentro do Blender [EXPANDIDO]
Esta semana que o Arttur está afastado por motivos superiores, ele pediu ajuda para manter o Blog atualizado e, nesse sentido, coloco a postagem abaixo.
Brian Hanson lançou lá no facebook e no vimeo o seu primeiro teste do motion traking que está sendo desenvolvido para o Blender. Os passos são iniciantes, mas é um projeto que promete.
Se você quiser ir testando escolha a sua versão no link: http://graphicall.org/?keywords=motion+tracking.
Links relacionados:
GraphicAll
GraphicAll
Etiquetas:
o que vem por aí
quarta-feira, 8 de junho de 2011
Babioles - Dust to Dust
Perdido num lixão e procurando alguma atenção humana, Little Rabbit tenta chegar à cidade com o seu novo companheiro de Little Indian. Dirigido por Matray e produzido por Autour de Minuit, a equipe ganhadora do Oscar responsável por Logorama.
domingo, 5 de junho de 2011
Conhecimento base - Cores
A postagem abaixo foi copiada do link: http://blendertotal.wordpress.com/2011/03/01/fundamentos-1-cores/
Vamos deixar o Blender um pouco de lado. Mas só um pouco! O assunto é cores e o objetivo é que você aprenda a usá-las em seus renders para dar um toque especial no resultado. Algumas mudanças bem simples podem melhorar o aspecto de sua obra.
Vou tentar apresentar, de forma introdutória, um pouco sobre teoria das cores. Também algumas dicas e conceitos básicos que eu uso e vejo no trabalho de outras pessoas. Nada aqui é regra, então é claro que você não precisa seguir tudo em todos os seus trabalhos. É importante, porém, que você conheça essas “regras” para então poder quebrá-las.
Antes de começar, uma pequena nota: também estou aprendendo, então se você éexpert no negócio, mas expert MESMO, e encontrar algum erro, pode colaborar corrigindo .
Por que aprender sobre cores?
Saber que misturando azul com amarelo obtém-se verde não é mais suficiente. Na busca por aquele render perfeito todo detalhe importa e cores não podem ficar de fora.
Fazer algo no Blender significa, entre outras coisas, criar algo que é prazeroso para os olhos. Aprender um pouco sobre teoria das cores vai ajudar a incorporá-las nas suas criações de forma correta. Você vai deixar de tomar decisões baseadas apenas no “achei bonito” e passar a entender porque a imagem ficou bonita. Ou então porque ela não ficou bonita e assim saber o que fazer para melhorá-la.
Mais uma vez, nada é regra. Afinal, todos tem um gosto diferente e cada trabalho tem suas características. Não vamos esquecer da subjetividade de um trabalho artístico.
Mas de quais cores estamos falando?
Certo, o post é sobre cores. Mas quais cores? A cor da roupa do meu personagem, do olho dele ou do carro que eu modelei? De tudo isso! O que você vai perceber é que cada cor transmite uma sensação e isso pode ser aplicado em qualquer parte do seu trabalho. No entanto, a aplicação das cores é mais efetiva e perceptível quando tratamos de iluminação. Então um bom começo é experimentar diferentes opções de iluminação, que refletirão no aspecto geral da imagem. Depois, conforme você for entendendo melhor, se preocupar com cores de elementos menores na cena.
O que é uma cor?
Cor é a percepção da luz. E a luz “é composta” de várias cores. Nós conseguimos enxergar as cores do espectro visível: vermelho, laranja, amarelo, verde, azul e violeta. A junção de todas essas cores forma o branco. Você provavelmente já sabe disso, mas um prisma pode ser usado para decompor a luz branca e revelar as cores que a compõem:
Capa do álbum “The Dark Side of the Moon”, do Pink Floyd.
Quando um objeto recebe uma luz, alguns comprimentos de onda são absorvidos e outros refletidos. Nós, então, percebemos essas ondas refletidas como cores. Quando um objeto verde, por exemplo, recebe uma luz, ele vai refletir apenas os verdes para o ambiente e para o observador (nós), absorvendo quase que totalmente as outras faixas da luz (vermelho, azul…).
A superfície reflete a faixa de luz verde e absorve quase que totalmente as outras.
Uma cor pode ser classificada de acordo com três características:
Matiz: é a característica mais “comum” da cor. Quando dizemos qual é a cor que vemos, estamos identificando-a pela matiz: vermelho, azul, amarelo etc. Dessa forma, é comum a palavra cor ser usada como sinônimo de matiz. A matiz está associada ao comprimento de onda dominante, como no caso da imagem acima, na qual o comprimento de onda dominante é o verde, portanto a cor (matiz) é verde.
Diferentes matizes com o mesmo brilho e croma.
Brilho, valor e luminosidade: representam o índice de intensidade luminosa da cor, ou seja, a quantidade de luz refletida pela matiz.
Variação de luminosidade (esquerda: escuro; direita: claro) com mesma matiz e croma.
Croma: está relacionada à pureza da matiz, que varia de intensa ou altamente cromática (pura) a neutra (sem cor: branco, cinza e preto). Cromaticidade pode ser apenas um dos nomes para a pureza da matiz. Um outro nome é saturação, bem mais utilizado. Na verdade, saturação seria a medida da pureza ou intensidade da matiz, mas vamos tentar manter a coisa simples por aqui.
Variação de croma (esquerda: neutro; direita: intenso) de duas matizes com mesma luminosidade.
Então podemos dizer, de forma bem simplificada, que a matiz define qual é a cor, obrilho, valor e luminosidade o quão clara/escura é a cor e a pureza, saturação ou intensidade o quão viva é a cor.
Sistemas de cores
Dependendo do meio em que estamos trabalhando diferentes sistemas de cores são utilizados.
Quando misturamos cores em uma pintura ou num processo de impressão, usamos osistema subtrativo. Nesse sistema, nós começamos com as cores primárias e terminados no preto. Misturando duas cores primárias temos uma secundária. Misturando uma secundária com mais uma primária temos um terciária e assim por diante. O que acontece é que a cada cor que é adicionada obtém-se um resultado mais escuro, que tende ao preto.
As cores primárias citadas acima geralmente são vermelho, amarelo e azul (RYB – red, yellow e blue, em inglês). Mas quando se trata de impressão, por exemplo, as cores primárias são ciano, magenta, amarelo e preto (CMYK – cian, magenta, yellow e key, em inglês).
Quando estamos num computador, as cores na tela são criadas com luz, usando o sistema aditivo. Nesse caso, quanto mais cor é adicionada mais claro é o resultado, que tende para o branco. As cores primárias utilizadas aí são vermelho, verde e azul (RGB – red, green e blue, em inglês).
Abaixo estão representados os sistemas CMYK (subtrativo), RYB (subtrativo) e RGB (aditivo).
Da esquerda para a direta: CMYK, RYB e RGB.
Círculo cromático
O círculo cromático é uma forma de representar cores num círculo para perceber a relação entre cores primárias, secundárias e terciárias. Essa forma de representação também ajuda a entender o que são cores análogas e complementares, que veremos nos próximos tópicos.
Quando o círculo é desenhado, as cores primárias utilizadas geralmente são o vermelho, amarelo e azul (RYB). Para começar a representação, essas três cores são posicionadas no círculo. Depois, na divisa entre cada cor, é colocada uma nova cor, resultante da mistura das cores ao seu redor. Surgem as cores secundárias. Para obter cores terciárias o processo é o mesmo, e ele pode ser repetido de acordo com o nível de detalhe desejado.
Círculo de Boutet de 1708 com 7 cores (esquerda) e 12 cores (direita).
É mais comum o círculo ser usado apenas com diferentes matizes, como é o caso acima, mas também é possível representar a variação de luminosidade.
Farbentafel, de Wilhelm von Bezold’s – 1874.
Cores quentes e frias
Cores quentes são o vermelho, laranja, amarelo e variações. Numa imagem, essas cores serão mais ativas e provavelmente vão chamar a atenção do espectador.
Cores frias, por sua vez, vão ser as cores passivas numa imagem, ou seja, não vão chamar tanta atenção. Elas são o azul, verde, roxo e variações.
Starry Night. Imagem de Mathias Pedersen.
A distinção entre cores frias e quentes pode ser feita pela forma como elas aparecem na natureza. Num dia de ensolarado ou num pôr do sol, vão predominar as cores quentes, enquanto num dia nublado ou chuvoso, as cores frias. Nos exemplos acima é perceptível a utilização de cores para a construção da atmosfera. A primeira mostra um ambiente aconchegante e acolhedor e a segunda frio e sombrio.
Relações e combinações de cores
E agora vem a parte interessante! A parte que você começa a escolher quais cores usar numa imagem.
O círculo para os exemplos abaixo é bastante simples e com ele vamos identificar algumas relações entre as cores e como podemos combiná-las.
Primeiro, o básico: as cores primárias utilizadas foram vermelho, amarelo e azul, como indicado na imagem. Essas cores são as mais básicas e não podem ser obtidas a partir da mistura de nenhuma outra cor. As cores secundárias são obtidas pela mistura de duas primárias. Misturando uma cor secundária com mais um primária, temos um cor terciária.
Usar o círculo cromático pode ajudar a selecionar cores que são harmoniosas. Para isso, existem algumas combinações predefinidas.
A mais simples dessas harmonias é a monocromática. Ela é criada a partir de uma única matiz com variação de luminosidade e saturação. Veja como é simples:
Outra harmonia resulta nas chamadas cores análogas. Quando usado numa imagem, esse conjunto de cores geralmente dá um resultado bastante prazeroso, porque as cores são parecidas. Então você pode escolher uma cor como base e formar um esquema de cores análogas para serem usadas em um imagem. Se a cor base for o laranja, as outras cores tenderão para o vermelho e amarelo, mas sem se distanciar muito da cor original.
Abaixo eu selecionei dois exemplos de cores análogas aplicadas em trabalhos.
The Outpost. Imagem de Ognian Bonev.
Na primeira imagem, a cor base é o azul, e a segunda utiliza cores próximas ao laranja. Os autores provavelmente escolherem essas cores porque queriam passar sensações diferentes para quem vê a imagem, além de criar uma atmosfera apropriada. Perceba que não há grande variação de cores e que elas estão lado a lado no circulo cromático.
Outra combinação é a de cores complementares. Ao contrário das análogas, essas cores ficam distantes no círculo cromático, opostas. Teoricamente, quando cores complementares são misturadas, elas geram uma cor neutra (branco, cinza ou preto). É importante saber que, dependendo do sistema de cores usado (aditivo ou subtrativo), as cores complementares mudam, mas para nós isso não faz tanta diferença.
Quando cores complementares são usadas juntas, principalmente com bastante saturação, o efeito é de contraste. Se quero usar cores complementares, penso basicamente nestas combinações: vermelho com verde, azul com laranja e amarelocom violeta. Variações dessas cores também podem ser combinadas. Ao invés de azul e laranja, por exemplo, é possível usar azul e amarelo e o resultado também será de contraste, visto que o amarelo é semelhante ao laranja.
Abaixo, mais dois exemplos, dessa vez mostrando o uso de cores complementares.
Before Contact. Imagem de Andrey Maximov.
Nem sempre o uso de cores complementares é tão óbvio, mas nos exemplos acima o contraste é bem perceptível: na primeira temos azul e amarelo e na segunda verde e vermelho. O efeito visual é, sem dúvidas, bastante interessante.
Uma dica de uso de cores complementares é para destacar algum elemento do restante da cena. Se você modelou algum animal, digamos, e ele é azul, um fundo amarelo/laranja vai ajudar a destacá-lo. Se o fundo também for azul, provavelmente seu bichano não chame tanta atenção e o elemento principal e passe a ser tão importante quanto um fundo vazio. O exemplo abaixo ilustra muito bem isso – não há muito trabalho no fundo, apenas uma cor complementar à do personagem, e o resultado é muito bom!
Freaky Bird. Imagem de Patrick Beaulieu.
Semelhante à combinação complementar, temos a complementar dupla. Esta funciona da mesma forma que aquela, mas dessa vez quatro cores complementares são escolhidas. Então, ao invés de apenas um par de cores, dois são usados . Veja estes dois exemplos e tente identificar as cores complementares:
No primeiro caso a imagem é bastante colorida. Mesmo assim, acredito que podemos destacar dois pares de cores complementares: o primeiro é o céu, bastante visível, com tons de azul e amarelo. Mas se olharmos os detalhes, é possível também perceber o uso do vermelho e do verde, que, como você já deve saber, são complementares. Veja só os prédios, as cores variam entre tons de vermelho e tons de verde, assim como no chão, que é verde, e outros elementos, como os veículos, que são vermelhos.
Na segunda imagem, os tons de azul presentes do céu e na água estão em contraste com a luz amarela vinda do fundo. Ao mesmo tempo, o verde presente nas fitas do vestido da mulher é complementar ao vermelho das sombrinhas. Portanto, também é um caso de combinação complementar dupla.
Abaixo, as quatro combinações que vimos até agora e mais duas.
Uma das novas combinações presente na imagem acima é a tríade, que consiste basicamente em escolher três cores no circulo cromático de forma que a distância entre essas cores, por serem iguais entre si, formem um triângulo. Repare na imagem acima as cores no esquema triádico e veja como estão presentes abaixo:
A outra é a complementar divida: uma matiz mais duas outras igualmente distantes de sua complementar. O resultado não vai ser muito diferente da combinação completar. Veja a imagem “Before Contact”, já usada como exemplo acima. Poderíamos dizer que trata-se de complementar dividida, levando em conta o vermelho como uma das cores e as outras duas o verde “amarelado” do chão e o verde “azulado” do fundo.
Estamos sendo bastante flexíveis aqui, afinal, são pequenas variações que, apesar de fazerem diferença no resultado final, não demandam definir exatamente qual esquema estamos usando. Um dos motivos para isso é que estamos trabalhando com renderização 3D. Ao escolhermos as cores dos objetos da cena, por exemplo, na renderização elas apresentarão variações por causa de luz/sombra, Global Illumination, Ambient Occlusion etc.
Na verdade, esquemas de cores bem definidos são bastante usados por pintores. Nesse caso, os esquemas podem servir como palheta de cores, ou seja, se o esquema escolhido for complementar com as cores verde e vermelho, apenas essas duas cores de tinta (no caso de pintura tradicional) e as misturas delas serão usadas na pintura. No nosso caso, como não estamos pintando nada, isso não é necessário.
Use cores!
Depois de tudo o que vimos, podemos dizer que grande parte das escolhas de cores no seu trabalho vai ser feita a partir da experiência – coloca uma, não ficou bom, troca. Mas saber um pouco de como combinar cores com certeza pode ajudar! A dica final do post é essa: use cores! Já vi inúmeros trabalhos sem vida e/ou com cores que não valorizavam o que tinha sido feito. E nem era preciso refazer muita coisa para ficar mais interessante, como mudar a cor do fundo porque era a mesma do personagem. Tenha em mente que muitos fatores estão envolvidos no seu render e as cores não podem ficar de fora!
Para finalizar, fique com o curta de animação Parallel Parking, da Yum Yum, que utiliza bastante cores:
Etiquetas:
Conhecimento base,
iluminação,
render
sábado, 4 de junho de 2011
Impressionante!! Aparência de tecido usando Micro CT Imaging
Clique na imagem para ampliar (vale a pena) |
O Departamento de Ciência da Computação da Universidade de Cornell (Department of Computer Science of the Cornell University) traz um trabalho impressionante que propõe uma nova abordagem para a aquisição de modelos de volume para tecidos.
Baseado em dados de densidade a partir de raios-X de tomografias computadorizadas (computed tomography ou apenas "CT" sigla em inglês) e os dados de aparência a partir de fotografias sob iluminação não controlada.
Baseado em dados de densidade a partir de raios-X de tomografias computadorizadas (computed tomography ou apenas "CT" sigla em inglês) e os dados de aparência a partir de fotografias sob iluminação não controlada.
Para modelar um material, uma tomografia computadorizada é feita, resultando em uma densidade de volume escalar. Estes dados tridimensionais são processados para extrair informações de orientação das fibras de cada material e eliminar ruídos visuais.
A densidade resultante e os campos de orientação são utilizados em um processo de correspondência de aparência para definir as propriedades de distribuição do volume que, quando processado, produz imagens com textura estática que correspondem a fotografias.
Como os resultados mostram esta abordagem pode produzir modelos de aparência volumétrica com detalhes extremos, e em escalas maiores as texturas distintas e destaques de uma gama de tecidos muito diferentes como cetim e veludo emerge automaticamente - tudo baseado simplesmente em ter geometria precisa com mesoescala.
Tentando simplificar...
O processo é pegar o padrão de distribuição do formato da fibra de cada tecido a partir de tomografias computadorizadas para gerar um modelo de um pedaço do tecido que possa representar visualmente todo o restante do tecido. Se tiver algo que possa interferir visualmente no modelo eles tiram. A partir do modelo é feito a cópia do padrão identificado na tomografia para toda a área do tecido virtual.
Abaixo tem uma amostra do que o processo foi capaz de produzir (em alta definição - então clique na imagem para ampliá-la)
Links relacionados
Imagem em alta resolução (clique na imagem para ampliá-la) |
Links relacionados
Universidade de Cornell (site em inglês)
Encarte para a SIGGRAPH (PDF com qualidade alta - em inglês)
Encarte para a SIGGRAPH (PDF com qualidade baixa - em inglês)
Imagens suplementares (13MB)
Etiquetas:
impressionante
O que vem por aí - Dynamic Paint Versão 2
Já apresentei aqui no blog o excelente trabalho que o Dynamic Paint desenvolve para uso de texturas. Só que agora, com apoio do Google Summer Code, o seu desenvolvedor, descrito no Youtube como "mikaweb", está tornando trazendo o uso para o tempo de execução, ou seja, o famoso "real time".
Assista ao vídeo abaixo e comprove você mesmo. É de se empolgar, ou não? Parabéns para ele.
Links relacionados
sexta-feira, 3 de junho de 2011
Visões ortogonais no Blender
Antes que critiquem, existem outros métodos de usar imagens de referência no Blender. O apresentado nos vídeos abaixo é apenas um deles.
quinta-feira, 2 de junho de 2011
Blender Guru - Criando letras "Sizzling"
Neste tutorial você irá aprender:
* o básico de animação por keyframe (pose-chave);
* como adicionar fumaça rapidamente;
* como usar o "video sequencer" para adicionar efeitos sonoros.
* o básico de animação por keyframe (pose-chave);
* como adicionar fumaça rapidamente;
* como usar o "video sequencer" para adicionar efeitos sonoros.
Etiquetas:
Blender Guru
quarta-feira, 1 de junho de 2011
Conhecimento base - Profundidade de campo
A postagem abaixo foi copiada do link: http://www.cambridgeincolour.com/pt/tutoriais/profundidade-de-campo.htm
A profundidade de campo é gama de distâncias em torno do plano focal na qual há nitidez aceitável. A profundidade de campo depende dos tipos de câmeras, aberturas e distância, apesar de também ser influenciada pelo tamanho da impressão e pela distância de visualização da imagem. Essa seção foi pensada para ajudar a melhorar a compreensão intuitiva e técnica de profundidade de campo aplicada na fotografia.
A profundidade de campo não muda em nenhuma região da imagem de modo abrupto, ou seja, em nenhum ponto observa-se transição de nitidez total para desfoque, sempre ocorre uma transição gradual. Na verdade, tudo imediatamente em frente ou atrás do plano de foco já começa a perder nitidez -- mesmo que não percebamos com nossos olhos ou pela resolução da câmera.
Círculo de confusão
Já que não existe um ponto crítico de transição, um termo mais rigoroso chamado de'círculo de confusão' é usado para definir quanto um ponto precisa estar borrado para ser visto como desfocado. A região onde o círculo de confusão se torna perceptível está fora da profundidade de campo e então não é mais 'aceitavelmente nítida', isto é, está fora de foco. O círculo de confusão acima teve o tamanho exagerado para ficar mais claro; na realidade ele teria um tamanho equivalente a uma pequena fração da área do sensor da câmera.
Quando que um círculo de confusão se torna perceptível aos nossos olhos? Um círculo de confusão aceitavelmente nítido é definido de uma maneira não muito rigorosa como um que não é percebido se observado a uma distância de 30 cm e numa impressão padrão de 20x25 cm.
Considerando essas distância e tamanho, os fabricante de câmera assumem que um círculo de confusão é irrelevante quando não é maior que 0.2mm. Como resultado, os fabricantes de câmera usam esse padrão quando mostram os marcadores de profundidade de campo em lentes (ver imagem ao lado). Na realidade, uma pessoa com uma visão 'normal' pode discernir elementos com 1/3 desse tamanho ou menores, assim o círculo de confusão deve ser ainda menor do que 0.2mm para produzir nitidez aceitável.
Há um círculo de confusão máximo diferente para cada tamanho de impressão e distância de visualização da mesma. No exemplo anterior com os pontos borrados, o círculo de confusão é, na realidade, menor que a resolução da sua tela para os dois pontos mais próximos ao ponto de foco, e por isso eles são considerados dentro da profundidade de campo. Isso significa que a profundidade de campo pode ser baseada em onde o círculo de confusão se torna menor que o tamanho de um pixel do sensor da sua câmera digital.
Note que a profundidade de campo só determina um valor máximo para o círculo de confusão, e não descreve o que acontece em regiões quando elas estão fora de foco. Essas regiões são chamadas de 'bokeh' (do japonês, pronuncia-se 'bou'-'quei'). Duas imagens com profundidade de campo idênticas podem ter bokeh muito diferentes uma da outra, já que isso depende da forma do diafragma da lente. Na realidade, o círculo de confusão não é um círculo, mas normalmente pode ser aproximado por um já que é pequeno próximo ao ponto de foco. Quando ele se torna grande, a maioria das lentes geram uma forma poligonal com algo entre 5 a 8 lados.
Controlando a profundidade de campo
Apesar do tamanho de impressão e a distância de visualização serem fatores importantes que influenciam na aparência do círculo de confusão para os nossos olhos, a abertura e a distância focal são dois elementos chave que determinam quão grande o círculo de confusão será no sensor da sua câmera. Aberturas maiores (números F menores) e distâncias de foco mais próximas produzem profundidades de campo mais rasas. O seguinte teste de profundidade de campo foi feito variando-se a abertura, mas com a distância de foco fixa e com uma lente de 200mm numa câmera digital com um sensor com fator de corte de 1.6X (ou seja, a lente é equivalente a uma de 320mm em uma câmera de 35mm):
f/8.0 | f/5.6 | f/2.8 |
Esclarecendo: distância focal e profundidade de campo
Note como a distância focal não foi mencionada como um fator que influencia a profundidade de campo. Mesmo que as câmeras teleobjetivas aparentem criar uma profundidade de campo muito mais rasa, isso se deve principalmente ao fato delas normalmente serem usadas para fazer com que o sujeito da foto aparente ser maior quando o fotógrafo não consegue se aproximar dele. Se o sujeito ocupar a mesma fração do visor da câmera (magnificação constante) para ambos uma lente grande angular e uma teleobjetiva, a profundidade de campo total é praticamente* a mesma com a distância focal! Isso, é claro, obrigaria a uma proximidade muito maior com a lente grande angular ou uma distância muito grande com a teleobjetiva, como é demonstrado na seguinte tabela:
Distância Focal (mm) | Distância de Foco (m) | Profundidade de Campo (m) |
---|---|---|
10 | 0.5 | 0.482 |
20 | 1.0 | 0.421 |
50 | 2.5 | 0.406 |
100 | 5.0 | 0.404 |
200 | 10 | 0.404 |
400 | 20 | 0.404 |
Obs.: Os cálculos de profundidade de campo foram feitos usando-se como referência uma Canon 20D (fator de corte 1.6X), uma abertura de f/4.0 e um círculo de confusão de 0.0206 mm.
Perceba como há realmente uma sutil mudança para as menores distâncias focais. Isso é um efeito real, mas é desprezível quando comparado com a abertura e a distância de foco. Mesmo a profundidade de campo total sendo praticamente desprezível, a fração de profundidade de campo que está em frente e atrás da distância de foco muda com a distância focal, como vemos abaixo:
Distribuição da Profundidade de Campo | ||
---|---|---|
Distância Focal (mm) | Trás | Frente |
10 | 70.2 % | 29.8 % |
20 | 60.1 % | 39.9 % |
50 | 54.0 % | 46.0 % |
100 | 52.0 % | 48.0 % |
200 | 51.0 % | 49.0 % |
400 | 50.5 % | 49.5 % |
Isso mostra uma limitação do conceito tradicional de profundidade de campo: ele só leva em conta a profundidade de campo total e não sua distribuição em torno do plano de foco, mesmo que ambos contribuam para a percepção de nitidez. Uma lente grande angular tem uma transição mais gradual da profundidade de campo atrás do plano de foco do que na frente, o que é importante para fotografias de paisagens.
Por outro lado, quando um objeto numa distância fixa é focado a partir de um mesmo local, uma lente com distância focal maior terá uma profundidade de campo menor (apesar das imagens aparentarem algo completamente diferente). Isso é mais próximo ao uso diário dos diferentes tipos de lentes, mas é um efeito devido a magnificação e não distância focal. Lentes com distâncias focais maiores também aparentam ter uma profundidade de campo menores pois eles achatam a perspectiva. Isso resulta em fundos muito maiores relativamente ao primeiro plano -- mesmo se não há mais detalhe. A profundidade de campo também aparenta ser menor para câmeras SLR do que para compactas digitais pois as SLR necessitam menores distâncias focais para atingir o mesmo campo de visão.
*Nota: descrevemos a profundidade de campo como 'quase' constante pois há casos limite onde isso não é verdade. Para distâncias de foco que resultam em maior magnificação, ou muito próximas da 'distância hiperfocal', lentes grande angulares podem ter profundidades de campo maiores que teleobjetivas. Por outro lado, para situações de grande magnificação, os cálculos tradicionais de profundidade de campo se tornam imprecisos por outro fator: magnificação da pupila. Na realidade isso age contra o aumento de profundidade de campo para a maioria das grandes angulares, e a favor para as teleobjetivas e macro. No outro caso limite, próximo da distância hiperfocal, o aumento da profundidade de campo surge devido ao fato das grandes angulares terem maior profundidade de campo atrás do plano de foco, e assim podem alcançar nitidez maior no infinito para qualquer distância de foco.
Calculando a profundidade de campo
Para calcular a profundidade de campo é necessário decidir valores para o máximo círculo de confusão permissível. Isso se baseia tanto no tipo de câmera (tamanho do sensor ou filme) quanto na combinação entre a distância de visualização e o tamanho da impressão.
Cálculos de profundidade de campo normalmente assumem que é necessário haver elementos com tamanho de 0.02cm para que a nitidez seja aceitável (como discutido anteriormente), mas pessoas com visão 20/20 podem ver elementos com 1/3 desse tamanho. Se você usar esse padrão, lembre-se que as partes próximas aos limites do campo podem não estar aceitavelmente nítidas.
Nota: o 'fator de corte' também é chamado de 'multiplicador de distância focal' ou,
Nota: o 'fator de corte' também é chamado de 'multiplicador de distância focal' ou,
Profundidade de foco
Outra implicação do círculo de confusão é o conceito de profundidade de foco (também chamado de espalhamento de foco). Ele difere da profundidade de campo pois descreve a distância sobre a qual a luz é focalizada no sensor da câmera, em oposição a quanto do sujeito da foto está em foco. Isso é importante pois define a tolerância sobre quão plano deve ser o filme ou o sensor digital para que haja foco em todas as porções da imagem.
Outras notas
Por quê não utilizar a menor abertura (maior número F) para alcançar a maior profundidade de campo? Além do fato de que isso normalmente requer tempos de exposição muito longos e proibitivos sem um tripé, abertura muito pequenas suavizam as imagens criando um círculo de confusão grande (ou "disco de Airy") devido a um efeito chamado de difração -- mesmo dentro do plano de foco. A difração se torna um efeito limitante quando as aberturas diminuem. Apesar de suas profundidades de campo absurdas, normalmente é por isso que as câmeras pinhole têm resolução limitada.
Para fotografia macro (de alta magnificação), a profundidade de campo é influenciada por outro fator: magnificação da pupila. Esse é igual a um para lentes que são simétricas internamente, mas para teleobjetivas é muito menos e para grandes-angulares é muito mais que um. Uma maior profundidade de campo pode ser atingida (em relação ao que se calcula) quando a magnificação da pupila é menos que um, (e não muda quando esse valor é igual a um). O problema é que a magnificação da pupila normalmente não é dada pelos fabricantes de lentes, assim só é possível estabelecê-lo (aproximadamente) visualmente.
Outros sites e leituras
- Norman Koren possui um outra perspectiva sobre a profundidade de campo (em inglês), incluindo muitas equações para os cálculos dela e do círculo de confusão
- The Luminous Landscape compara a profundidade de campo para diferentes distâncias focais (em inglês)-- e dá uma prova visual que a profundidade de campo não muda com a distância focal.
Etiquetas:
camera,
Conhecimento base,
render
Assinar:
Postagens (Atom)