Vemos as estrelas, olhamos os Planetas sobretudo por uma razão: é porque é bonito, maravilhoso. É essa curiosidade pelo maravilhoso que hoje permite obter resultados significativos na saúde e no bem estar humanos.
E da Astronomia a investigação promete e indica grandes avanços nas imagens do olho humano.
Vejamos agora, ao jeito de introdução, um diagrama anatómico do olho humano:
E novas imagens extremamente detalhadas do olho humano:
A imagem acima mostra os cones mais pequenos no centro da Retina. A fóvea ou mancha amarela é a região central da retina do olho humano onde se concentram os cones e onde se forma a imagem que será transmitida ao cérebro. Há duas regiões especiais na retina: a fovea centralis (ou fóvea ou mancha amarela) e o ponto cego. A fóvea está no eixo óptico do olho, em que se projecta a imagem do objecto focalizado, e a imagem que nela se forma tem grande nitidez. É a região da retina mais especializada para a visão de alta resolução. A fóvea contém apenas cones e permite que a luz atinja os fotorreceptores sem passar pelas demais camadas da retina, maximizando a acuidade visual – que é a capacidade do olho de distinguir entre dois pontos próximos.
Barras de Escala = 10 µm (micrómetros, 1µm = a Milésima parte de 1 milímetro).
Crédito: ALPAO SAS
Outra imagem de extrema resolução e detalhe:
Atentemos agora na retina do olho humano:
Foi demonstrada por investigadores norte-americanos a validade dum novo algoritmo que corrige as aberrações ópticas que apareciam nas imagens do fundo do olho humano. O método da equipa deverá permitir que os benefícios da astronomia com recurso à óptica adaptativa (que corrige a bonita aberração do brilho trémulo das estrelas, de facto uma anomalia óptica provocada pelas turbulências na nossa atmosfera) possam ser trazidos para a prática clínica. Este método evita os custos elevados do hardware, e, de acordo com os investigadores, pode auxiliar no diagnóstico precoce de doenças degenerativas neurológicas e oftalmológicas, tornando o seu tratamento mais eficaz.
A Tomografia de Coerência Óptica é uma técnica de imagiologia médica com base na interferometria que é análoga à técnica das imagens de ultra-som, com a diferença que utiliza a luz em vez do som. É o padrão de referência nos cuidados de diagnóstico e de monitorização numa série de condições médicas a exemplo da degeneração macular (causada pelo envelhecimento), na qual o tecido por debaixo da retina começa a perder elasticidade, levando a uma deficiência de nutrientes e à eventual morte dos fotorreceptores.
Resolução diminuída
Contudo, a luz utilizada para iluminar a retina tem que passar através dos olho do paciente, e as imperfeições específicas de todos e de cada ser humano geram aberrações na imagem, reduzindo desta forma a resolução da imagem até que se torna impossível captar os receptores individuais o que obriga os investigadores a terem que inferir o progresso microscópio duma doença a partir de detalhes macroscópicos.
Na óptica adaptativa – que se desenvolveu em primeira mão na Astronomia para, como referimos, corrigir as aberrações provocadas pelas turbulências da atmosfera – as distorções das frentes das ondas reflectidas são medidas através dum sensor de ondas, e um dos espelhos está constantemente a ser deformado para corrigir essas distorções.
Vejamos agora um exemplo de astronomia com recurso à óptica adaptativa:
Estas correcções da óptica adaptativa podem melhorar dramaticamente a resolução das imagens, mas o hardware de óptica é muito sofisticado e obriga a diminuir consideravelmente a velocidade das imagens enquanto aumenta drasticamente os custos da instalação, quase que os duplicando. Por sua vez, o mínimo movimento involuntário do olho sob exame pode alterar a fase das ondas que se aproximam e emborrar as imagens interferométricas, tornando muito difícil a identificação das aberrações para estas poderem ser corrigidas.
O Professor Stephen Boppart e os seus colegas da Universidade do Illinois no campus de Urbana-Champaign, bem como outras equipas de investigação concorrentes, produziram nos últimos anos uma série de papers científicos num tópico designado por “óptica adaptativa computacional,” no qual estas correcções são aplicadas através dum software de processamento de imagem ao invés do dispendioso hardware óptico. Na sua nova investigação, revelaram um algoritmo de decisão em multi-fases, ou seja onde parte duma amostra (que é o plano focal da imagem), ou uma secção optimizada pelas leis da Física (a transformação de Fourier e a dispersão inversa na coerência óptica, caso estejam interessados nestes detalhes) da imagem é resolvida para se resolver posteriormente o seu todo.
Este algoritmo aumenta as imagens da retina que já podem ser processadas pela placa de gráficos dum qualquer computador pessoal de grande capacidade (entre os 3 e os 6 mil euros e com tendência a diminuir o seu custo pela Lei de Gordon Moore – ver nota) e usar esta placa afim de sondar a retina do olho humano duma forma detalhada que não tem precedentes nas imagens sem recurso à óptica adaptativa computacional.
Corrigindo as imperfeições
Primeiro, corrigiram a fase, permitindo a boa identificação das aberrações. Depois, utilizaram uma técnica electrónica para identificarem e corrigirem as aberrações de (relativa) grande escala o que revelou uns poucos fotorreceptores óbvios, que ainda tinham um aspecto esborratado. Finalmente, o algoritmo calcula as correcções detalhadas necessárias para que estes fotorreceptores ficassem focados nessa secção da imagem após o que foram aplicando o algoritmo a toda a imagem. É este procedimento que significa multi-fases, ou fase a fase, para simplificar.
Na óptica adaptativa na astronomia, por vezes usam-se as estrelas para guiar estas correcções.
Os investigadores captaram uma imagem dum olho dum voluntário, e olharam (literalmente) para uma área junto do centro da retina que se chama fóvea. Produziram então uma série de imagens extremamente detalhadas que mostravam, por exemplo, a densidade decrescente dos fotorreceptores à medida que a distância da fóvea aumentava.
“É sensato referir que todos concordámos que a imagens obtidas pela técnica da óptica adaptativa computacional são equivalentes em qualidade às imagens obtidas pelo hardware dos sistemas de óptica adaptativa,” referiu o Professor Boppart, que com natural entusiasmo prosseguiu “para mais, pensamos que podemos ainda melhorar corrigindo as aberrações de escala fina já que somos capazes de manipular a etapa pós-aquisição de dados, o que nos confere uma muito maior flexibilidade.”
O Professor Pablo Artal, da Universidade de Múrcia descreveu esta investigação como “impressionante” e que as imagens “são lindas.” No entanto manteve-se céptico quanto aos benefícios de custos, pois poderão sugerir dificuldades na integração da óptica adaptativa em sistemas comerciais devidamente desenvolvidos, e ainda acerca da eficácia do software, especialmente nos casos mais complexos em que o ruído apresenta mais problemas, apesar de concordar que serão necessárias mais pesquisas nestes casos específicos. Em todo o caso, diz o Professor Artal, pode haver muitas situações em que este processamento de imagem é suficientemente bom, e que assim sendo pode obter muito valor económico.”
A pesquisa do Professor Boppart está ora justamente focada nesta direcção. “Vamos integrar o hardware da óptica adaptativa no nosso sistema computacional,” refere, “e verificar por uma comparação directa se a computação pode substituir inteiramente o hardware ou até se há alguma sinergia na presença dos 2 sistemas.”
A equipa de investigação quer agora obter imagens das fibras nervosas do olho humano, dado que o colapso da bainha de mielina pode ser um indicador chave da esclerose múltipla.
—
Agradecimentos, ao IOP – Institute of Physics, Reino Unido.
O Tim Bartow, que me enviou notificação sobre esta pesquisa (e que fez um texto magnífico para o IOP) e ainda sobre possíveis avanços na física de plasmas, especificamente na gestão de fluídos de elevadas temperaturas nos reactores de fusão nuclear (não é fissão, é fusão como faz o Sol) de que darei notícia caso se justifique.
Ao investigador português Professor Marco Candeias, em Osaka, pelo grande incentivo no desenvolvimento das actividades de astronomia, a base desta investigação (e pelos deliciosos bolos da doçaria japonesa devorados na escrita deste post).
Aos profissionais do centro de Óptica dos Centenários, pela explicação da inserção de códigos a laser nas lentes e pelo seu vivo interesse na Astronomia.
Ao Professor John Naughton, da Universidade de Oxford, pela excelência dos seus ensinamentos em ciência computacional.
—
Nota – a lei de Gordon Moore, um dos 5 fundadores da Intel, diz que por cada ano e meio que passa (este prazo designa-se por uma iteração) a capacidade de processamento de dados dum microprocessador (ou do vosso computador em casa) duplica. E que a variável preço é afinal uma constante nas interacções. Há mais de 30 anos que esta Lei se verifica e tudo indica que se venha a manter nos próximos 20 anos.
Caso a capacidade seja suficiente (e já o é, em 99% dos casos) então mantém-se a capacidade de processamento da iteração anterior e reduz-se o preço (ora variável) para metade.
O próprio Gordon Moore refere que o prazo será de 2 anos, sendo prudente como o está a ser o Professor Artal em relação aos prazos dos processos industriais e às imposições das práticas comerciais.
Isto tudo significa que se duplicam, a cada 2 anos, o número de microprocessadores para a mesma placa que os sustenta, portanto do que estamos a falar é de miniaturização, de literalmente caberem o dobro dos processadores no mesmo espaço anterior.
Portanto refere-se ao hardware. Simplesmente a revolução surda do software também beneficiou de enormes ganhos, embora não comparáveis à exponencial de base 2 ( a duplicação do número de processadores) da Lei de Gordon Moore.
Por calcular, por serem mais caso-a-caso e sofrerem da barreira dos segredos industriais, estão as exponenciais ou as simples adições das sinergias entre software e hardware, referidas pelo Professor Boppart.
Mas, segundo as melhores fontes e os melhores dotes de adivinhação educada na computação, já há dispositivos com software embutido no hardware, um pouco à imagem dos códigos de laser que hoje as lentes de oftalmologia dispõem (não são visíveis a olho nu).
Por isso, com a prudência recomendável do Professor Artal e do empresário e inventor Gordon Moore, podemos verificar que o entusiasmo do Professor Boppart tem bases sólidas, exponenciais a que eventualmente se somará a sinergia dos 2 sistemas.
Por último, uma exponencial legítima (não a que se houve falar na TV nas campanhas eleitorais e comerciais ou nos comentários menos bem informados) de base 2 ( e não se refere nunca outras bases, e podem ser literalmente inúmeras) é isto :
O algarismo 2.
Elevado a 2, assim: 2^2 (^ significa “elevado a”)
e soma-se +1 à potência da iteração anterior, assim:
2^2 ; 2^3, dois elevado a quatro, 2^5 e sucessivamente +1 na potência.
Dá 4, 8, 16, 32, 64, 128, 256, 512, 1024.
Aqui o 1024 passa a 1k, por arredondamento. Depois teremos os Megas e os Gigas, brevemente os Teras.
É este o crescimento exponencial do hardware e da capacidade de processamento dos computadores.
E é a taxa de decaimento da fissão nuclear, que é um processo natural lento que a tecnologia apressou para termos centrais de energia nuclear. Infelizmente também para construírmos armas. Mas como é um tema diferente, um dia destes falaremos sobre isso, combinado?
Últimos comentários