Comemora-se hoje, 11 de fevereiro de 2015, o quinto aniversário do lançamento do Solar Dynamics Observatory (SDO), um sofisticado observatório espacial que tem como objectivo a contínua monitorização da estrela mais próxima da Terra, o Sol.
Para assinalar a data, a NASA divulgou dois vídeos espetaculares.
O primeiro vídeo é um timelapse dos últimos 5 anos. As cores diferentes representam diferentes comprimentos de onda, de luz ultravioleta e visível; que por seu lado, representam temperaturas diferentes no material solar.
O segundo vídeo mostra os melhores momentos dos últimos 5 anos, sobretudo ao nível das manchas solares, das proeminências solares, das flares, e das CMEs.
Como nos informa o Sérgio Paulino:
“O SDO regista a actividade solar a cada 0,75 segundos em 10 comprimentos de onda distintos, cada um evidenciando diferentes regiões da atmosfera solar. Todos os dias, o observatório envia para a Terra cerca de 1,5 terabytes de dados – o equivalente a aproximadamente 380 filmes de longa duração!”
Leiam todo o artigo na página da NASA, aqui.
2 comentários
E para “certos” filmes, como por exemplo o Interstellar (2014) cada imagem de CGI pode dar “muito trabalho” a fazer…
Para começar a ver melhor o que é o CGI:
http://en.wikipedia.org/wiki/Computer-generated_imagery / http://pt.wikipedia.org/wiki/Imagens_geradas_por_computador
Sugestão:
http://www.imdb.com/title/tt0816692/trivia
Citação:
To create the wormhole and black hole, Dr. Kip Thorne collaborated with VFX supervisor Paul J. Franklin and his team at Double Negative.
Thorne provided pages of deeply sourced theoretical equations to the team, who then created new CGI software programs based on these equations to create accurate computer simulations of these phenomena.
Some individual frames took up to 100 hours to render, and ultimately the whole CGI program reached to 800 terabytes of data. <————————-
The resulting VFX provided Thorne with new insight into the effects of gravitational lensing and accretion disks surrounding black holes, and led to him writing two scientific papers: one for the astrophysics community and one for the computer graphics community.
Sobre o filme:
http://www.astropt.org/2014/12/04/interestelar-a-minha-analise/
http://www.astropt.org/2014/11/24/a-ciencia-e-o-filme-interestelar-os-acertos-e-os-erros/
http://www.astropt.org/2014/10/31/a-ficcao-cientifica-a-ajudar-a-ciencia/#comments
http://www.astropt.org/2015/01/08/o-nicho-hipervolumetrico/#comments
Já agora, um outro exemplo de algo que utiliza 800 Terabytes:
•The High Performance Computing Platform will use existing supercomputing capabilities at Forschungszentrum Jülich in Germany, the Swiss Centre for Scientific Computing, the Barcelona Supercomputing Centre, and at the Italian CINECA.
With this joint effort, HBP project could count on about 10 Petaflop of peak performance, 800 Terabytes of main memory and 8 Petabyte scratch file system, thus allowing simulation of cellular-level models with 100 million neurons.
Fonte: http://www.scienceonthenet.eu/content/article/giulia-annovi/closing-gap-between-brain-and-computer/may-2014
Para uma maior familiarização:
http://en.wikipedia.org/wiki/High-performance_computing / http://pt.wikipedia.org/wiki/Supercomputador
Simplesmente espetacular. Imaginem como o Brasil está atrasado!