quarta-feira, 27 de abril de 2016

Fisica e Química - Vídeo - Gerador Eólico

Física e Química - Vídeo - O Sonho de Dimitri Mendeleev - Organizando a Tabela Periódica

Física e Química - Vídeos - Electricidade animada

Física e Química - Vídeos - Eletricidade - Campo Magnético Gerado por Corrente Elétrica

Física e Química - Vídeos - Indução Eletromagnética - Gerador Elétrico e LED

Física e Química - Vídeos - A arquitectura da rede do Meo

Física e Química - Vídeos - Veeco, o carro electrizante

Física e Química - Vídeos - Motor Eléctrico

O peso da gravidade





Um mistério que continua a intrigar os cientistas
Mais de 300 anos depois da revelação de Newton, ainda não sabemos exactamente por que razão cai a maçã. Einstein foi o primeiro a reabrir um debate que desafia os próprios fundamentos da física.

Numa fria tarde de Janeiro de 1684, depois de almoçarem num pub de Londres, os físicos Edmund Halley e Robert Hooke conversavam sobre uma ideia que andava na cabeça de muitos astrónomos: se seria verdade que a força de gravidade entre o Sol e a Terra diminui com o quadrado da distância a que se encontram. O arquitecto e cientista Christopher Wren decidiu oferecer um livro de 40 xelins a quem conseguisse demonstrar a conjectura, mas não obteve resposta. O assunto foi esquecido até que um dia, no Verão seguinte, Halley viajou até Cambridge para visitar o excêntrico Isaac Newton. “Tem alguma ideia do tipo de curva que um planeta descreveria se a força de gravidade fosse o inverso do quadrado da distância?”, perguntou-lhe. A resposta não se fez esperar: uma elipse. Newton não encontrou a demonstração, mas prometeu escrevê-la e enviar-lha depois.

Quando Halley, passado três meses, recebeu o texto do amigo, incitou-o a redigir um livro. O criador da física moderna fez desse projecto o objectivo da sua vida: mal dormia e esquecia-se de comer. Foi assim que nasceu o livro Philosophiae Naturalis Principia Mathematica (“Princípios Matemáticos da Filosofia Natural”). Na obra, Newton expunha o funcionamento da gravidade, uma força de acção instantânea e à distância. Todavia, não sugeria uma causa. De facto, nunca se deu ao trabalho de explicar o que era, limitando-se a fornecer uma explicação matemática para a forma de acção. Semelhante falha suscitou acesas críticas: o matemático Gottfried Wilhelm Leibniz (1646–1716) descreveu-a como “ocultista”. Seria preciso esperar séculos para entendê-la verdadeiramente.

Berna, 1907. Sentado diante da mesa do gabinete de patentes onde trabalha, um tal Albert Einstein tem, subitamente, uma inspiração: se uma pessoa cai livremente, não sente o próprio peso. “Fiquei sobressaltado. Foi o pensamento mais feliz da minha vida”, confessaria, posteriormente, o físico de origem alemã.

O paradoxo do armário
Não era para menos, já que estava a abrir a porta à prodigiosa teoria da relatividade geral. O que Einstein acabava de descobrir era o chamado “princípio da equivalência”: fechados num armário, não temos maneira de distinguir se estamos na presença de um campo gravitacional ou se nos estão a levar pelo espaço em aceleração constante. Por outras palavras: gravidade e aceleração são equivalentes.

Dez anos depois, em Novembro de 1915, o então físico suiço apresentou ao mundo a sua nova teoria. Através dela, conseguimos finalmente entender não só como funciona a força gravitacional como, também, o que é. No decurso das suas três célebres aulas na Academia Prussiana das Ciências, Einstein deu a conhecer uma teoria que relacionava a geometria do espaço com a matéria ali presente. A frase que melhor a resume é, talvez, a que surge no livro Gravitation (1973), dos físicos John Archibald Wheeler, Kip Thorne e Charles W. Misner: “O espaço diz à matéria como deve movimentar-se; a matéria diz ao espaço como deve curvar-se.” É este o conceito fundamental da relatividade geral: o valor da curvatura em determinado ponto, provocada pela densidade do objecto, é uma medida da gravidade existente no referido ponto.

Einstein chegou a estas conclusões através de considerações exclusivamente estéticas. “Qualquer pessoa que tenha compreendido a teoria”, escreveu, “dificilmente poderá resistir a deixar-se seduzir pela sua magia.” Um encantamento que seria confirmado, em 1919, quando o astrofísico inglês Arthur Stanley Eddington (1882–1944) obteve, na então ilha portuguesa de São Tomé, a confirmação definitiva, ao observar o desvio gravitacional dos raios de luz provocado pelo Sol, durante o eclipse total desse ano. Os astros não estavam onde se supunha deverem estar, mas onde Einstein indicara.

Porém, faltava algo. A doutrina einsteiniana e o outro grande ramo da física do século XX, a mecânica quântica, não se dão bem. De facto, ao longo dos últimos 50 anos, os físicos têm lutado para conseguir encaixá-las, isto é, para descobrir equações que possam descrever o funcionamento da gravidade em escalas sub­ató­micas. Ainda não existe uma hipótese consistente, mas muitos pensam que há uma candidata bastante promissora. Nasceu na Primavera de 1985, quando um dos físicos mais jovens e brilhantes da Universidade de Princeton (Estados Unidos), Edward Witten, anunciou que ia proferir uma conferência.

A estrutura íntima da matéria
Como é habitual acontecer nos acontecimentos importantes, os rumores sucederam-se. Durante hora e meia, Witten falou sem parar e de forma muito rápida. O discurso destinava-se a apresentar, como ele próprio disse sem lhe atribuir demasiada importância, uma nova teoria sobre o Universo. Foi também uma lição de virtuosismo matemático. Quando chegou a altura das perguntas, o auditório permaneceu em silêncio. “Ninguém foi suficientemente corajoso para se levantar e revelar até que ponto a nossa ignorância era profunda”, afirmou o físico Freeman Dyson.

Witten formulou uma explicação sobre a estrutura mais íntima da matéria, o que está no nível abaixo dos quarks, dos electrões e das restantes partículas subatómicas: as cordas. Não são pontiformes, mas extensas e sem espessura; possuem apenas uma dimensão. O tamanho é também inconcebível: para termos apenas uma vaga ideia, a Terra é 10^20 vezes mais pequena do que o Universo, e o núcleo atómico é 1020 vezes menor do que o nosso planeta. Pois bem, uma corda é 10^20 vezes mais pequena do que esse núcleo.

De acordo com a teoria das cordas, vivemos num universo com dez dimensões (nove espaciais e uma temporal). O nosso mundo observável é uma espécie de folha ou lâmina (“brana”, no calão físico) de quatro dimensões. As partículas subatómicas que observamos são formas de vibração dessas cordas, como as notas musicais numa guitarra, e a gravidade pode ser entendida como uma interacção entre elas.

Não foi a última hipótese a surgir. De facto, abundam actualmente as tentativas para entender esta fugidia lei da natureza. A derradeira proposta provém do astrónomo holandês Erik Verlinde, o qual resolve o problema pela negação pura e simples. Em Junho passado, declarou ao New York Times: “Para mim, a gravidade não existe.” De acordo com a sua perspectiva, trata-se antes de uma propriedade emergente, como as oscilações da Bolsa, que surgem da acção individual dos investidores. Ou seja, dito de forma mais radical, a gravidade não passaria de uma ilusão.

M.A.S.
SUPER 154 - Fevereiro 2011

O mistério da antimatéria



A física diz-nos que, após o Big Bang, foi criada para cada partícula de matéria o seu reverso, a antimatéria. Todavia, ambas estavam destinadas a aniquilar-se mutuamente e a voltar ao estado de energia. Se assim foi, porque é que o Universo visível é feito de matéria? Seja em terra ou no espaço, os projectos para desvendar este mistério procuram respostas. Entre eles, há quem fale na língua de Camões.

Existe uma pergunta fundamental a que a ciência está a tentar responder. Uma dúvida tão antiga como o Big Bang e que data de há 13,7 mil milhões de anos atrás. Porque é que existimos? Porque é que existem planetas, estrelas, galáxias e até a própria revista que o leitor segura na mão?

Essencialmente, tudo isto se deve à existência de matéria suficiente, no Universo, para os formar, a qual é composta por átomos. Por sua vez, os átomos são constituídos por partículas mais pequenas, ou seja, electrões, protões e neutrões. Mas há mais, pois os próprios protões e neutrões são constituídos por partículas ainda mais diminutas, os quarks. Ao combinar tudo isto entre si, conseguimos obter todos os elementos da tabela periódica. Embora pareçam suficientes para dar existência ao Universo, a verdade é que este jardim zoológico de partículas e elementos ainda não está completo. Faltam as antipartículas.

Quando o Universo nasceu, todo ele era feito de energia pura e, nos seus primeiros momentos, essa energia começou a fabricar pares de partículas e antipartículas. Quer isto dizer que para cada partícula existia o seu oposto. No entanto, estes pares aniquilavam-se mu­tua­mente, voltando a produzir energia. Por sua vez, à medida que o Cosmos se expandia e arrefecia, a densidade da sua energia decaía.

Contudo, as teorias actuais preconizam que, se o Universo tivesse algumas centenas de milhares de anos, todas as partículas (toda a matéria) teriam regressado à forma de energia, mas uma energia cuja temperatura seria demasiado baixa para a criação de mais pares de partículas. Entretanto, as partículas e as antipartículas já se teriam aniquilado por completo, dado que tanto uma como a outra eram geradas em iguais quantidades.

Se assim foi, de onde veio a matéria que nos compõe? E já agora, o que aconteceu à anti-matéria que está em falta? Parece que as teorias têm algumas pontas soltas no que a este assunto se refere. Daí que se queira investigar melhor para tentar saber o que realmente sucedeu.

As antipartículas têm a mesma massa que a suas irmãs partículas, mas distinguem-se por ter cargas opostas. Por exemplo, o electrão, que é uma partícula elementar (indivisível) e que se caracteriza por ter uma carga negativa, tem como reverso uma antipartícula que se chama “positrão”, a qual tem uma carga de valor oposto, quer dizer, uma carga positiva. As partículas compostas, como o protão (carga positiva) e o neutrão (carga neutra), também têm o seu reverso, o antiprotão e o antineutrão, respectivamente. Uma vez que os protões e os neutrões não são partículas elementares, já que são formados por quarks, as suas antipartículas vão ser constituídas por antiquarks. Mas passemos às evidências.

“Sabemos que existe no Universo antimatéria porque conhecemos os antiprotões e os positrões, duas partículas que detectámos e estudámos através dos raios cósmicos que atravessam a nossa atmosfera e em experiên­cias com os aceleradores de partículas do CERN.” A explicação é dada por Luísa Arruda, investigadora portuguesa do Laboratório de Instrumentação e Física Experimental de Partículas (LIP), que participa no projecto AMS, um detector que vai ser lançado para o espaço com o intuito de encontrar indícios cósmicos de antimatéria.

No entanto, estamos num terreno bastante pantanoso, pois “não há medidas que nos indiquem a existência, no Universo, de quantidades suficientes de antipartículas”, salienta a investigadora. E já agora, será que existe antimatéria em formas mais complexas, como o anti-hélio ou o anticarbono? A nível experimental e conceptual, os físicos já conseguiram obter evidências de que a antimatéria pode existir, ou pelo menos ser fabricada artificialmente, mas encontrá-la de modo natural já é uma situação bem diferente.

O brasileiro Claudio Cesar fez parte da equipa de investigadores do CERN que conseguiu alcançar, recentemente, o extraordinário feito de criar átomos de anti-hidrogénio e fazê-los perdurar algum tempo, não deixando que se aniquilassem de imediato. Mas uma coisa é criar antimatéria, outra é encontrá-la no seu estado original, tal como surgiu após o Big Bang. É por isso que Claudio Cesar avisa que “não existe, ao que parece, nenhuma antimatéria primordial, pois toda a que foi criada no início do Universo foi destruída, originando o mar de radiação (fotões/luz) que nos cerca”.

Para além da mão humana (leia-se: dos centros de investigação), há ainda eventos cósmicos que podem desencadear a criação de antimatéria. Por exemplo, “quando ocorre uma supernova, existe energia suficiente para a criar, a qual se aniquilaria e emitiria raios gama”, constata o cientista. Contudo, ainda não foram detectados possíveis raios gama provenientes da aniquilação de antimatéria primordial. Porém, seja em centros de investigação de partículas ou com a ajuda de detectores ultra-sensíveis que flutuam no espaço em busca de raios cósmicos suspeitos, os cientistas não parecem querer baixar os braços enquanto não cortarem as pontas soltas dos modelos teóricos.

Na região de Genebra, na fronteira da Suíça com a França, está sediada a Organização Europeia para a Investigação Nuclear (CERN), responsável por uma das maiores experiências da história da ciência, o grande acelerador de partículas LHC (Large Hadron Collider). Além de estudar os primórdios do Universo, os laboratórios do CERN também conseguem criar antimatéria, usando os aceleradores de partículas para simular as condições de alta energia que existiram pouco depois do Big Bang.

Foi através deste género de experiências que os físicos obtiveram a certeza de que, cada vez que a energia é transformada em matéria, na forma de quarks ou electrões, são igualmente produzidos antiquarks e positrões. Aliás, “a antimatéria é produzida no CERN há dezenas de anos, de forma rotineira”, confirma Clara Gaspar, a portuguesa que é responsável pelo sistema de controlo do LHC beauty experiment, mais conhecido por LHCb, um dos quatro detectores do LHC e aquele que se encontra a estudar todo este mistério.

Basicamente, “o LHCb está a estudar as diferenças entre a matéria e a antimatéria, em busca da razão pela qual só encontramos a primeira”. Hoje em dia, a maior parte dos cientistas acredita que o desequilíbrio que vemos entre a matéria e o seu oposto é o reflexo de uma diferença, muito subtil, entre as duas. Por exemplo, uma pequena variação na taxa de decaimento de cada uma pode explicar porque é que conseguiu prevalecer uma pequena, mas muito significante, fracção de matéria. Todavia, também pode ter existido um outro mecanismo, desconhecido, que as impediu de se aniquilarem por completo. O grande objectivo do LHCb, assim sendo, está na busca das pequeníssimas assimetrias que levaram à criação de tudo o que nos rodeia.

Para atingir esse fim, a famosa equação de Einstein (E=mc2) é aqui aplicada em toda a sua beleza. Ao provocar no CERN a colisão entre protões, obtém-se energia, a qual dá depois origem à “geração de novas partículas”. “Em cada colisão, são geradas partículas acompanhadas das suas antipartículas, e aquilo que o LHCb pretende estudar em detalhe é a produção de dois tipos específicos de partículas, os quarks b e os antiquarks b, para detectar possíveis diferenças”, salienta Clara Gaspar.

Neste momento, o LHCb ainda está numa fase inicial de compreensão dos dados adquiridos, pois o grande acelerador de partículas só entrou em actividade no final de 2009. Com estes dados, e outros mais que se irão acumular nos próximos anos, espera-se que a experiência “possa contribuir com novas descobertas”. Para 2016, está programada uma actualização do aparelho, “com a nova versão a ser composta por detectores ainda mais sofisticados e de maior precisão, o que permitirá a aquisição de um maior número de dados e o estudo da desintegração de outros tipos de partículas, como os quarks c e os antiquarks c”.

Clara Gaspar trabalha no CERN há quase 25 anos, sendo um dos poucos portugueses que integram o projecto LHCb. Sob o seu olhar atento está o sistema de controlo do detector, o qual “funciona 24 horas por dia, com dois operadores sempre presentes na sala de controlo”. Todo o cuidado é pouco: “O mínimo problema na experiência tem de ser imediatamente detectado e corrigido, para não se perderem dados.” A quantidade de informação adquirida pelo LHCb assim o justifica: dez milhões de colisões por segundo, detectadas através de centenas de milhares de canais electrónicos, controlados por 200 computadores a funcionar em paralelo, cada um dedicado a um subsistema do detector. Uma grande responsabilidade.

Lançar um detector de raios cósmicos para o espaço, acoplá-lo à Estação Espacial Internacional (ISS, na sigla inglesa) a 300 quilómetros de altura da Terra e esperar que, ao fim de três anos, a antimatéria tenha dado ares da sua graça. Eis um dos dois objectivos do projecto AMS (para além do estudo da matéria escura), do qual fazem parte investigadores de 56 instituições e de 16 países. Entre eles, encontram-se três cientistas do LIP.

“O projecto AMS data de 1994 e, basicamente, é um detector de partículas construído muito à semelhança dos detectores que encontramos no CERN”, sintetiza Luísa Arruda. “De modo grosseiro, podemos dizer que é parecido com o LHCb.” Para cumprir a sua missão, irá detectar os “traços” dos raios cósmicos que o atingem, os quais, segundo a cientista do LIP, darão a direcção das partículas que aí chegam. “O AMS tem um sistema que permite medir a velocidade dessas partículas e fazer a identificação da sua carga.”

Uma vez medidos com exactidão os raios cósmicos, os seus espectros serão estudados, para identificar as partículas que os constituem. Um dos principais objectivos passa pela tentativa de identificação de núcleos atómicos, como o anti-hélio, para que possam corroborar a existência de antimatéria no Cosmos. “Se medirmos esses núcleos mais pesados, nem que seja apenas um, teremos a evidência de que poderão existir estruturas como anti-estrelas, algures no nosso Universo, que estejam a passar por um período de nucleossíntese. Ou seja, no centro dessas anti-estrelas estariam a ser formados todos os anti-elementos da tabela periódica.” Seria o sinal de que poderia existir um outro mundo, com propriedades simétricas das do nosso.

No entanto, antes de sonhar com essas possíveis descobertas, ainda falta lançar o detector para o espaço e juntá-lo à ISS, algo que está previsto para 1 de Abril de 2011, a bordo do vaivém espacial Endeavour. Uma vez que é mais pequeno do que os seus grandes irmãos do CERN, o detector AMS foi construído com uma série de constrangimentos. Apesar disso, trata-se de uma experiência que vai ser colocada no espaço. Portanto, todo o material tem de estar preparado para operar nessas exigentes condições e lá permanecer durante três anos, sem qualquer manutenção humana.

A colaboração do LIP com este projecto já dura há mais de dez anos, sendo actualmente coordenada por Fernando Barão, do Instituto Superior Técnico. Os três cientistas do LIP trabalham no subdetector RICH (Ring Imaging Cherenkov), responsável por fornecer as medidas mais precisas da velocidade e carga eléctrica das partículas detectadas. “Em colaboração com o restante grupo do AMS, nós desenvolvemos e implementamos algoritmos que vão fazer a reconstrução das variáveis de velocidade e carga, e somos responsáveis pela manutenção e controlo da sua performance.”

Se pensa que a antimatéria não tem qualquer utilidade prática e imediata, o melhor é desistir da ideia. Na medicina, ela já é usada para lutar contra o cancro, nomeadamente através do scanner PET (Positron Emission Tomography), uma tecnologia que faz tomografias através da emissão de positrões. Este tipo de exames “é do mais sensível que existe para a detecção do cancro”, refere Claudio Cesar.

Na sua essência, esta tecnologia funciona através da injecção, na corrente sanguínea do paciente, de uma substância radioactiva previamente misturada com glicose (açúcar). A substância concentra-se em maiores quantidades na zona afectada pelo tumor, dado que é aí que o corpo consome maiores quantidades de açúcar. Ao chegar aos tecidos tumorais, os átomos da substância radioactiva, já de si instáveis, vão decair em positrões. Ao entrar em contacto com o tecido do corpo (com a matéria) estes positrões são aniquilados, libertando fotões que são detectados para construir uma imagem tridimensional e precisa do tumor (para os progressos portugueses nesse campo, ver Antimatéria Salva-vidas, SUPER 148).

Querendo ir mais longe, algumas equipas estão a estudar a possível utilização de antiprotões para matar os próprios tumores cancerígenos, fazendo-os actuar como uma espécie de “mini-bomba”. Além do mais, “o anti-protão teria a vantagem de poder fornecer uma imagem tridimensional de onde se está a matar o tumor”, comenta o físico brasileiro. Todavia, esta possibilidade “ainda está muito longe de se tornar uma realidade”.

Enquanto fonte de energia, foi a ficção, através da série Star Trek, que popularizou o uso de antimatéria como combustível para as naves espaciais. Saltando para o campo do real, a verdade é que “sempre esteve no website da NASA que a antimatéria seria o único combustível possível para se fazer uma viagem além do Sistema Solar, por ser o mais eficiente que existe”, revela ainda Claudio Cesar. “Se misturarmos positrões com electrões, obtemos energia pura, não restando nenhuma massa. O problema é que seria preciso gastar muito mais energia para criar a antimatéria do que a que depois se retiraria dela, pois o processo para a sua criação ainda é muito ineficiente.” Ou seja, o melhor é especular por um tal reactor para daqui a muito tempo.

Por agora, há que esperar pelas possíveis revelações de projectos como o LHCb ou o AMS. Talvez se descubra que, afinal existem estrelas, planetas e galáxias inteiras feitas de antimatéria. Todavia, se isso acontecer, não se esqueça de seguir o conselho do físico britânico Stephen Hawking: “Se encontrar o seu anti-eu, não lhe aperte a mão, pois desapareceriam os dois num grande clarão de luz.”

Em Novembro, uma equipa de investigadores do CERN, ligados ao projecto ALPHA, anunciou a invulgar produção de milhares de anti-átomos de hidrogénio. Mas o que saltou à vista foi o aprisionamento, pela primeira vez, de 38 desses anti-átomos durante um décimo de segundo, sem os deixar aniquilar-se.

Criar átomos de antimatéria não é novidade, pois em 1995, e outra vez no CERN, foi gerado o primeiro anti-átomo, de anti-hidrogénio. O problema é que estes elementos desaparecem, num flash de luz, assim que são gerados. Porém, ficava aberta a porta para fazê-los perdurar mais tempo. Em 2002, mais um passo foi dado nesse sentido, ao produzir-se anti-hidrogénio em grandes quantidades.

A preferência por este elemento é evidente, pois o seu reverso, o bem conhecido hidrogénio, é o átomo mais simples que a Natureza concebeu: somente um protão no núcleo e um singelo electrão a rodeá-lo. Bastava, por isso, criar a antipartícula de cada um deles e juntá-los, impedindo que desaparecessem de imediato.

Entre os investigadores que recentemente fizeram história, esteve o físico brasileiro Claudio Cesar, que explica como tudo foi feito: “O que a física faz hoje em dia é alquimia. Através da fórmula de Einstein, sabemos que a energia pode ser convertida em massa e vice-versa”, salienta. “O antiprotão que é feito no CERN é criado através de um acelerador de protões. Estes são acelerados através de energias bastante altas, sendo depois lançados contra um alvo metálico. Ao colidir com ele libertam energia, criando, por exemplo, o antiprotão.”

Os positrões foram produzidos de um modo mais fácil. O CERN tem acesso a fontes radioactivas de sódio-22, uma substância que, quando entra no processo de decaimento radioactivo (perda de energia e consequente transformação noutro elemento), emite grandes quantidade de positrões.

Uma vez produzidos os dois elementos do hidrogénio, é preciso combiná-los. Primeiro, os antiprotões criados são desacelerados, de modo a perderem energia. Enquanto uma grande parte deles acaba por se aniquilar, uma pequena fracção é capturada numa garrafa de vácuo, através de campos eléctricos e magnéticos. Quando os antiprotões são presos, a sua energia ainda é de milhões de Kelvin (o equivalente a outros milhões de graus Celsius). Sozinhos no vácuo, são depois misturados com electrões. Como o antiprotão não é a antipartícula do electrão, não ocorre um aniquilamento, mas, devido à troca de energia que se dá entre os dois, os antiprotões acabam por arrefecer até perto dos cem Kelvin, uma temperatura bastante baixa (cerca de 170 ºC negativos).

Depois de arrefecerem ainda mais, até aos 40 Kelvin, entram em cena os positrões. Estes, que também foram aprisionados com campos eléctricos e magnéticos, são enviados, em conjunto com os antiprotões, para uma espécie de “armadilha” que também usa o mesmo género de campos. Seguem-se as partes mais delicadas. “Usando outra técnica sofisticada, conseguimos enviar lentamente os antiprotões para dentro da amostra de positrões, de modo a que possam colidir e formar o anti-átomo”, resume Claudio Cesar.

Para quase finalizar, é importante a utilização de um novo tipo de armadilha, desta vez para prender o anti-átomo neutro que vai formar-se. Neste caso, devido à carga neutra que comporta, é somente usado um campo magnético. O último passo envolve “juntar todas as amostras e enviar-lhes um pulso eléctrico que retira todos os antiprotões e positrões, de modo a restarem apenas os anti-átomos neutros que foram aprisionados”.

A operação revela-se complicada e difícil, “porque as amostras usadas estão a algumas dezenas de Kelvin, mas só conseguimos aprisionar os átomos que têm uma energia abaixo de meio Kelvin”, um valor que ronda o zero absoluto e as temperaturas mais baixas que existem no Universo.

Para que os anti-átomos sejam detectados e a experiência um sucesso, basta desligar a armadilha magnética. Isto leva a que os anti-átomos fiquem livres e possam colidir com as paredes (a matéria) do experimento, aniquilando-se em partículas de piões que são depois detectados, com precisão, numa imagem a três dimensões.

O período durante o qual o anti-hidrogénio ficou aprisionado (um décimo de segundo) parece insignificante, embora seja longo no que concerne à antimatéria. “Isso já é um tempo bastante razoável para fazer algumas experiências”, cita o investigador. No futuro, quando se aumentar ainda mais o tempo de aprisionamento, já será possível testar com rigor o modelo padrão da física das partículas, o qual defende que as leis da física devem ser rigorosamente iguais para a matéria e para a antimatéria. “Esta simetria é extremamente importante, porque está na base do modelo padrão. Se a quebrarmos, numa futura investigação, poderá haver sérias consequências para a física. Seria uma queda muito grande de um paradigma.”


J.P.L. - SUPER 153 - Janeiro 2011

O protão encolheu


Cientistas portugueses na capa da Nature

Um grupo de oito investigadores portugueses foi convidado a estar entre os melhores do mundo numa experiência que visava medir com precisão o raio do protão. O resultado final foi inesperado e promete abalar algumas certezas da física nuclear: afinal, o protão é mais pequeno do que se julgava.

"Quando descobrirmos como é constituído o núcleo dos átomos, teremos encontrado o maior segredo de todos, com excepção da vida. Teremos a base de tudo, da terra que pisamos, do ar que respiramos, da luz do Sol, do nosso corpo físico, de tudo no Mundo, por mais grandioso ou pequeno que seja.” Esta profecia foi atribuída ao neo-zelandês Ernest Rutherford, o pai da física nuclear. Não deixa de ser curioso que, quase cem anos depois de ela ter sido proferida, ainda resta muito por saber sobre uma das pedras basilares de toda a matéria – o núcleo do átomo.

A prová-lo está a recente revelação de que o protão, um dos elementos constituintes do núcleo atómico, a par do neutrão, pode ser mais pequeno do que está oficializado. A notícia foi capa da Nature em Julho e teve o condão de fazer os teóricos da física nuclear saltar das suas cadeiras, pois isso significa que algumas das teorias, tidas como das mais precisas que actualmente existem, podem estar incompletas ou erradas em alguns pormenores.

A conclusão é fruto de um conjunto de experiências coordenadas e realizadas no Paul Scherrer Institute (PSI), em Villigen, na Suíça, e protagonizadas por uma equipa internacional de 32 investigadores. Entre eles contam-se oito portugueses (seis da Universidade de Coimbra e dois da Universidade de Aveiro), responsáveis pelo sistema de detecção de raios X que integra o equipamento experimental.

“Foi uma grande surpresa”, confessa Joa­quim Santos, coordenador do Centro de Instrumentação da Faculdade de Ciências e Tecnologia da Universidade de Coimbra, a instituição que lidera as investigações a cargo dos portugueses. “O objectivo desta experiência era apenas o de melhorar, em dez vezes mais, a precisão com que era conhecido o raio do protão.”

De facto, o valor oficial para o raio do protão cifra-se, neste momento, nos 0,8768 fentómetros, sendo que cada fentómetro equivale a uns exíguos 0,000.000.000.000.001 metros. A ambição da equipa do PSI passava por acrescentar mais uma casa decimal ao valor em fentómetros.

Mas, como por vezes acontece, as grandes descobertas surgem quando menos se espera. Foi este o caso. Além de precisarem o valor com mais uma casa decimal, os investigadores ainda deram de caras com um novo tamanho: 0,84184 fentómetros para a distância do raio. Abusando de mais um valor incrivelmente diminuto, a revelação aponta para que o protão seja 0,000.000.000.000.03 milímetros (!) mais pequeno do que se julgava. Eis como o protão foi encolhido em cerca de quatro por cento.

Antes de dissecar as possíveis consequências desta descoberta inesperada, existe uma questão que salta logo à frente. Como é possível obter números tão liliputianos e com uma precisão tão extraordinária?

O núcleo ganha um novo parceiro

O átomo de hidrogénio é o sistema atómico mais simples que a natureza produz, razão pela qual os cientistas o adoptam como modelo de estudo. O seu núcleo é muito peculiar, pois dentro dele não existe um neutrão (como se verifica nos outros átomos), somente uma partícula com carga positiva (o protão), enquanto que a orbitá-lo, como se fosse um planeta em torno do Sol, está outra partícula mas com carga negativa (o electrão). A comparação com um sistema solar está longe de ser perfeita, mas é uma boa analogia inicial para perceber melhor a dinâmica de um átomo.

Tal como acontece com os planetas, ao orbitar à volta do protão, o electrão pode ter várias e diferentes órbitas, com cada uma delas a corresponder a uma determinada energia. Para um electrão se mover de uma órbita para outra, o sistema tem de receber ou perder energia. Melhor dizendo: “Sempre que o electrão está numa orbital mais exterior”, com mais energia, “diz-se que está num estado excitado, e quando passa para uma orbital interior ele emite energia”, explica Joaquim Santos.

De forma ingénua, podemos afirmar que os núcleos e os electrões atraem-se e repelem-se devido ao incessante jogo de sedução entre as quantidades de carga positiva e negativa que têm. Desta “estranha” relação podem advir coisas tão simples como a corrente eléctrica que vai alimentar a lâmpada do nosso quarto ou o laser de um leitor de DVD.

Mas a chave para o sucesso da experiência passou por substituir o parceiro do núcleo atómico do hidrogénio, o electrão, por uma outra partícula subatómica, o muão. Em vez de fazer testes com o hidrogénio electrónico, os investigadores do PSI recorreram, assim, a um “átomo exótico”, o hidrogénio muónico.

A escolha é prontamente dissecada pelo cientista de Coimbra: “Substituímos o electrão pelo muão pela simples razão de que é uma partícula parecida com o electrão mas 200 vezes mais pesada. Portanto, as orbitais do muão estão 200 vezes mais próximas do protão.” Deste modo, os efeitos da carga eléctrica do protão são mais claros e podem ser mais bem estudados. É como ter “uma bola de futebol a um metro de distância, em que os seus detalhes e costuras são mais nítidos do que se estiver a cem metros”.

Ao estudar os níveis de energia que correspondem ao hidrogénio muónico, torna-se possível determinar o raio do protão com maior exactidão. Para isso, basta medir a diferença de energia entre esses níveis, usando para o efeito as formulações da electrodinâmica quântica (QED, da sua designação em inglês), a teoria que descreve a interacção da radiação electromagnética (da luz, por exemplo) com os átomos (a matéria).

Primeiro o muão, depois o laser…

Mas vamos por partes. A experiência que foi feita na Suíça dividiu-se em três actos que culminaram num auge. Primeiro, para substituir o electrão por um muão no átomo de hidrogénio, é necessário criar um feixe de muões que possa ser disparado sobre hidrogénio. Uma das peculiaridades do muão é ele existir apenas durante dois microssegundos (dois milionésimos de segundo), em virtude de ser uma partícula instável. Na verdade, passado o seu curto tempo de vida, ele decai e transforma-se num electrão.

Neste curtíssimo espaço de tempo, é produzido um feixe de muões num acelerador de partículas, o qual é prontamente conduzido até uma garrafa de hidrogénio. “Os muões, ao chegarem e pararem dentro dessa garrafa, comportam-se como se dessem um chuto ao electrão”, exemplifica o investigador português. “Afastam o electrão de um átomo e ficam muito mais perto do protão.”

A habilidade parece corriqueira, mas é uma técnica que levou décadas a aperfeiçoar. ­Aliás, o protão do hidrogénio muónico só não foi medido há mais tempo porque isso envolve construir um feixe intenso de muões, retirar os electrões que surgem com o decaimento de alguns muões e, por fim, diminuir a velocidade das partículas que são produzidas. Esta redução é fundamental: “Quando os muões surgem, são muito velozes, sendo necessário travá-los, de modo a que reduzam a sua velocidade e cheguem à garrafa de hidrogénio praticamente parados.”

O segundo desafio foi arranjar um laser que dispare energias equivalentes às diferenças de energia das orbitais do muão. Para isso, é necessário que o comprimento de onda desse laser (a distância entre as cristas das ondas electromagnéticas que estão associadas ao feixe) seja regulável, de modo a obter o exacto nível de energia que permite excitar um muão e mudá-lo para uma órbita exterior. “Só quando o laser tem essa energia bem definida é que consegue fazer essa função, e é assim que podemos saber, com grande exactidão, qual é a diferença de energia entre as órbitas”, acrescenta Joaquim Santos

Como se tudo isto não fosse suficiente, logo que o fugaz muão surge na garrafa de hidrogénio o laser tem de ser disparado para o seu interior em menos de um microsegundo, com uma energia significativa capaz de apanhar o átomo exótico. Forte, rápido e peculiar. Atributos nada fáceis de conjugar, mas que foram alcançados pela equipa liderada pelo alemão Theodor Hänsch, também envolvida no projecto. O culminar foi a atribuição do Nobel da Física de 2005 a Hänsch, precisamente pelo tipo de laser que ajudou a criar.

…e por fim, o raio X português

E onde é que entram os investigadores portugueses? “O que o laser faz é excitar estados de energia que vão depois decair e levar à emissão de um fotão X”, descreve João Veloso, investigador da Universidade de Aveiro. “Quando a energia/comprimento de onda do laser é igual à diferença de energia dos estados, temos uma ressonância”, adianta ainda. Daqui resulta um pico de intensidade na emissão dos fotões X, ou se preferirmos dizer, de raios X. O papel da equipa portuguesa consistiu em desenvolver o sistema de detecção da radiação que é emitida.

Os oito cientistas portugueses foram convidados pelo PSI em 1998, quando o projecto ainda estava a ser delineado. Nessa altura, todos eles estavam na Universidade de Coimbra, e só mais tarde, com a investigação já a decorrer, dois deles se transferiram para a Universidade de Aveiro. “O PSI contactou-nos por causa dos desenvolvimentos que tínhamos feito com detectores de radiação X”, avanços esse que envolviam “detectores baseados em gás”, conta João Veloso. Um dos atributos especiais deste tipo de equipamento era a sua grande área de detecção. “Entretanto, apareceu outro tipo de detectores, dotados de semicondutores (os fotodíodos de avalanche), que se mostraram mais adequados à experiência.”

Apesar de serem mais pequenos, devido à nova tecnologia implantada, a vantagem é que podiam aproximar-se mais da garrafa de hidrogénio. Após neutralizarem o perigo de interferência que podia ser provocado por algumas partículas de alta energia, nomeadamente das que derivam da radiação gerada pelos próprios processos físicos desenvolvidos na experiência, o equipamento estava pronto a funcionar.

Os princípios que regem o funcionamento do sistema de detecção são fáceis de entender. Os semicondutores convertem os raios X emitidos num determinado número de electrões, detectando em seguida a carga eléctrica que foi depositada. Sendo assim, quando um raio X tem o dobro da energia, a carga produzida também é igual ao dobro. Será a partir do valor da carga eléctrica detectada que é possível saber a energia libertada, e daqui deduzir a diferença de energia entre as órbitas do muão.

Deste modo, com o feixe de muões, o sistema laser e o detector de raios X, este último sob responsabilidade portuguesa, temos os três pilares necessários para que a experiência desse os seus frutos. O resultado acabou por ser melhor do que o esperado.

Incertezas: das teorias ao LHC

Eureka! Após três tentativas falhadas, em 2003, 2005 e 2007, a máquina de medir protões conseguiu ter êxito no dia 5 de Julho do ano passado. Passou um ano até a descoberta ser anunciada, pois era necessário analisar os resultados e verificar se os instrumentos utilizados estavam bem calibrados. Uma vez garantido que tudo estava certo, os 32 físicos formalizaram a notícia pelos quatro cantos do mundo. O átomo parece ser mais pequeno em quatro por cento. E daí, qual o problema?

O problema é que “isso pode ter consequências muito grandes junto da QED, uma teoria aceite universalmente e que relaciona as interacções entre luz e matéria”, desabafa João Veloso. “A partir de agora, os teóricos que desenvolvem esta teoria terão muito trabalho pela frente. Algumas das possibilidades são a inclusão de novos parâmetros na teoria, ou estarmos perante uma nova física, onde novos e diferentes tipos de interacção terão de ser considerados.” O assunto pode interferir com o domínio prático, pois é a teoria QED que explica o funcionamento básico de algumas tecnologias do nosso quotidiano, como os lasers ou as ampolas de raios X que são usadas para fins clínicos.

No entender do coordenador da equipa portuguesa, outro dos paradigmas universais que poderão sofrer o ricochete da nova descoberta é a constante de Rydberg. “Esta está relacionada com as energias orbitais sucessivas que os electrões nos átomos podem ocupar. É um parâmetro, um valor, que está associado a esses níveis de energia.” Se ficar definitivamente comprovado que o raio do protão é menor, “a constante terá de mudar”. A situação pode causar ainda mais alvoroço, já que “a sua precisão era conhecida até doze casas decimais e não se esperava que pudesse ter um valor diferente”. O que antes era dado como certo é agora posto em dúvida.

E o que dizer do Grande Acelerador de Hadrões (LHC), a obra faraónica que custou mais de três mil milhões de euros e que promete puxar os limites da física até aos confins do compreensível? É preciso não esquecer que, para as suas experiências, são usadas partículas sub­atómicas pertencentes à família dos hadrões, principalmente… protões. “Se estamos a disparar coisas mais pequenas do que pensávamos, vamos obter sinais com menos intensidade e a probabilidade de colisão é menor”, conclui Joaquim Santos. “Obviamente, a performance da máquina não está em causa, mas ela poderá render menos do que se esperava.” Todavia, os dois investigadores portugueses afinam pelo mesmo diapasão, afiançando que tudo isto não passa de “pura especulação”.

E a seguir?

Quando se apresentam resultados experimentais que não coincidem exactamente com as teorias mais precisas, todo o cuidado é pouco. Apesar de tudo, os investigadores portugueses do PSI aparentam estar muito tranquilos. “Para já, quando é feita uma publicação na Nature, esta passa por um processo de arbitragem bastante apertado, pois são consultados os maiores especialistas na área”, lembra João Veloso. “Entretanto, no eco que já se obteve, não houve vozes contra a credibilidade desta experiência. Acho que a comunidade científica aceita o valor.”

“Defendemo-nos muito bem, não só calibrando com grande precisão os nossos aparelhos (porque são muitos), como também medindo outros valores e tentando através deles chegar ao raio do protão”, adianta, por sua vez, o coordenador da Universidade de Coimbra. “Chegámos à conclusão de que tudo é consistente.” A batata quente é assim passada às teorias existentes, com o dedo apontado a uma falha ou lacuna no seu formalismo.

Uma forma de confirmar os dados actuais consiste em fazer mais e novas experiências, aumentando o seu nível de complexidade. Por agora, já foram feitos alguns testes no átomo de deutério. Na sua forma original, este átomo é uma variante do hidrogénio, com a diferença de ter no núcleo mais uma partícula, esta dotada de carga neutra, o neutrão. Tal como antes, o electrão foi substituído por um muão, com os resultados obtidos a confirmarem os valores obtidos para o hidrogénio.

O passo seguinte será dado em 2012. O novo alvo é o átomo de hélio, um núcleo com dois protões e dois neutrões, a que se juntam dois electrões a orbitá-lo. A fasquia eleva-se. Os oito portugueses terão de estudar as melhores alternativas face às novas experiências que serão desenvolvidas. A energia dos raios X que serão libertados com o hélio muónico será quatro vezes maior do que a do hidrogénio. Os mesmos detectores serão testados na nova investigação, tal como outros mais, de modo a ver quais os que têm maior eficiência e sensibilidade na detecção da radiação. Nos próximos tempos, emoção é o que não faltará aos elementos de Coimbra e Aveiro.

Equipa com quinas

Todas as experiências em torno da medição do raio do protão decorreram no Paul Scherrer Institute, na Suíça. Com uma força de trabalho de 1300 pessoas e um orçamento anual de quase 190 milhões de euros, é considerado o maior centro de investigação da Suíça.

Para levar a cabo o projecto, em 1998 o instituto decidiu reunir um conjunto de investigadores de vários países, especializados em diversas áreas de investigação: física dos aceleradores, física atómica, sistemas laser e tecnologia de detecção de radiação, a área de especialidade dos cientistas portugueses.

Ao todo, foram reunidos 32 investigadores, vindos da Alemanha, da Suíça, de França, dos Estados Unidos e da Formosa. Portugal esteve presente com oito especialistas: da Universidade de Coimbra, Joaquim Santos (coordenador da equipa), Luís Fernandes, José Matias, João Cardoso, Fernando Amaro e Cristina Monteiro; da Universidade de Aveiro, João Veloso e Daniel Covita.


Uma brevíssima história do átomo

Cerca de 400 a.C. – O grego Demócrito aperfeiçoa a ideia de que a matéria não é contínua mas granular, feita de fragmentos indivisíveis ou atomos.

1897 – Joseph Thomson descobre a natureza granular da electricidade, ou seja, encontra o electrão. Era a primeira vez que se descobria uma partícula elementar, facto que valeu ao inglês o Nobel da Física em 1906.

1911 – Laureado com o Nobel em 1908, três anos depois o neo-zelandês Ernest Rutherford revelou que os núcleos dos átomos concentram uma carga positiva, o protão.

1932 – O protão não está sozinho no núcleo. Quem o provava era James Chadwick, depois de detectar partículas destituídas de carga eléctrica a que deu o nome de “neutrões”. Os três principais componentes do átomo eram finalmente conhecidos. Para não destoar dos restantes colegas, em 1935 o físico inglês também recebeu o Nobel da Física.



Como se mede o raio de um protão?

Depois de produzidos, os muões são desacelerados através de um campo magnético intenso.

Em seguida, atravessam um dispositivo em espiral dotado de um campo magnético uniforme (um solenóide), usado para focar os muões e separá-los dos electrões produzidos.

Uma vez formado o hidrogénio muónico, este é “excitado” através de um feixe laser.

Quando o muão decai para uma órbita inferior, são emitidos raios X que os fotodíodos de avalanche (quadrado rosa) vão detectar. O nível de radiação atinge o seu pico quando a energia do laser é igual à diferença de energia das órbitas.



Do espaço sideral para o laboratório

O norte-americano Carl David Anderson (1905–1991) já tinha entrado para a história da física nuclear em 1932, com a descoberta do positrão, a antipartícula do electrão. O facto valeu-lhe o Nobel da Física em 1936.

Todavia, o investigador não descansou sobre os louros conquistados: no mesmo ano em que foi a Estocolmo receber o prémio, subiu ao topo de montanhas para estudar os raios cósmicos. Esta radiação é constituída por partículas extremamente energéticas (em grande parte protões) que se deslocam quase à velocidade da luz pelo espaço sideral.

Davidson dedicou o seu tempo a estudar o momento em que essas partículas entram de rompante na atmosfera terrestre, colidindo com os núcleos dos átomos da atmosfera, a dez mil metros de altura. As suas observações detectaram que algumas das partículas que se formavam com as colisões tinham trajectórias invulgares, menos curvadas do que as dos electrões mas mais acentuadas do que as dos protões.

Concluiu estar-se perante uma partícula que tinha mais massa do que um electrão, mas menos do que um protão. Hoje em dia, essa partícula é conhecida por “muão”. Quando foi descoberta, tornara-se a primeira partícula para o qual os cientistas não encontravam um papel óbvio na estrutura atómica. A sua utilidade para a Natureza parecia nula, um contra-senso em forma de quebra-cabeças. Houve até um físico que se insurgiu e clamou: “Mas quem foi que os encomendou?”

Mais tarde, ficou a saber-se que o muão, apesar de ser 200 vezes mais pesado do que o electrão, é muito semelhante a este, inclusivamente no valor da carga eléctrica negativa (daí que possa substitui-lo na órbita de um núcleo atómico).

Em pleno século XXI, são os centros de investigação em física nuclear que tentam encomendá-los para as suas experiências, como a que foi feita para medir o protão. De tal modo que já os produzem nos seus aceleradores de partículas, a exemplo do que faz o PSI.

Ao chocarem protões contra folhas de grafite, são criadas partículas subatómicas denominadas de “piões”, parecidas com os muões mas mais pesadas e com um menor tempo de vida. Expirado o “prazo de validade”, estas decaem para muões. Passados os dois microsegundos de existência dos muões, estes transformam-se em partículas estáveis, os seus irmãos electrões.


J.P.L.
SUPER 149 - Setembro 2010

O LHC não pára em 2012

Ao contrário do que chegou a estar previsto, o LHC, o grande acelerador de partículas do Laboratório Europeu de Física das Partículas (CERN), perto de Genebra, na Suíça, vai continuar a funcionar durante todo o ano de 2012.


Segundo um comunicado emitido ontem pelo CERN, apenas deverá haver um “curto intervalo técnico” no final de 2011. A interrupção prolongada, indispensável para pôr o LHC a funcionar ao seu nível máximo de energia, fica assim adiada para 2013, dando ao acelerador, explica ainda o documento, “uma boa hipótese de fazer descobertas de física nos próximos dois anos”.

O derradeiro objectivo do LHC é a detecção do bosão de Higgs, também chamado “partícula de Deus”, que permitiria explicar por que é que as partículas elementares têm massa. Actualmente, o LHC está a operar a metade da sua potência máxima, mas o facto de ter estado a funcionar muito bem nos últimos meses acabou por motivar o adiamento das reparações. “Com o LHC a funcionar tão bem em 2010 e com as melhorias adicionais que se esperam (...), se a natureza for clemente connosco e (...) o bosão de Higgs estiver ao alcance da energia actual do LHC, os dados que prevemos recolher até finais de 2012 podem permitir descubri-lo”, declarou Sergio Bertolucci, o director do CERN.

Recorde-se que o CERN passou, recentemente, a ser a única entidade no mundo na corrida para o bosão de Higgs, depois de o Departamento da Defesa norte-americana ter decidido encerrar definitivamente, já em Setembro deste ano e por falta de financiamento, o segundo maior acelerador de partículas: o Tevatron do Fermilab, perto de Chicago, em funcionamento há 25 anos.

Investigadores de Coimbra aplicam técnicas da física ao estudo de obras de arte do século XVI

Investigadores da Universidade de Coimbra estão a aplicar técnicas da física ao estudo de obras de arte do século XVI, permitindo caracterizar a obra dos autores estudados, informou hoje a Faculdade de Ciências e Tecnologia (FCTUC).

Segundo uma nota divulgada pela FCTUC, uma equipa multidisciplinar liderada pelo físico Francisco Gil desenvolveu o projecto de investigação, que incidiu sobre obras de arte do século XVI, nomeadamente trabalhos dos Mestres de Ferreirim e da oficina de João de Ruão.

Integrando físicos, químicos, geólogos e historiadores da arte da Universidade de Coimbra e especialistas em conservação e restauro do Museu Nacional Machado de Castro, a equipa estudou cinco esculturas em pedra de Ançã de João de Ruão, preparando-se para analisar uma sexta, e oito painéis em madeira pintada da autoria dos mestres de Ferreirim, disse hoje à agência Lusa Francisco Gil.

"Através de técnicas como espectroscopia Raman (que, em poucos segundos, fornece informação química do material) e difracção de raio X pelo método de pó (esta última aplicada pela primeira vez ao estudo de obras de arte, usando amostras micrométricas) os investigadores analisaram, caracterizaram e compararam a obra das duas oficinas de artistas, ao longo dos últimos quatro anos", lê-se na nota da FCTUC.

Segundo o coordenador do projecto, este representa "um contributo importante para a evolução da história da arte".

"Permite mostrar - explicou - a riqueza que se vivia na época, a qualidade dos materiais, o gosto e o nível de vida dos artistas. João de Ruão usava por excelência ouro, vermelhão e lápis-lazúli, enquanto os mestres de Ferreirim utilizavam materiais mais pobres".

O estudo "poderá servir para descobrir a origem dos materiais, porque se trata da época áurea pós-Descobrimentos, em que os materiais podem ser originários de África, Índia ou Brasil", refere, no texto, o professor do Departamento de Física da FCTUC.

No âmbito do projecto foram analisadas outras variáveis, nomeadamente os produtos e factores de degradação ao longo dos séculos das obras de arte destes dois grupos de criadores, assinala a mesma nota.

Em declarações hoje à Lusa, Francisco Gil frisou que este trabalho é importante para a caracterização da obra dos autores, permitindo esclarecer dúvidas em termos de autoria, e também para intervenções de conservação e restauro.

Os investigadores vão agora iniciar o estudo das obras escultóricas do mestre Pêro, artista do Século XIV, em particular os túmulos da Rainha Santa Isabel e da sua neta Isabel para, posteriormente, estabelecer a ligação aos túmulos da família da rainha, em Aragão.

Este projecto será desenvolvido em parceria com as Universidades da Beira Interior, de Barcelona e de Florença, adianta a nota da FCTUC.

E se os riscos do carro desaparecessem com uns raios de sol?

Quando os resultados de alguns projectos científicos são divulgados coloca-se frequentemente a pergunta: "Mas, afinal, para que é que isso serve?" Neste caso, a resposta para essa questão é fácil. Um grupo de investigadores desenvolveu um produto que repara os riscos num carro quando este é exposto à luz do sol. O revestimento poderá ser aplicado a outros produtos.

Desenvolvemos um material poliuretano que tem a capacidade de se auto-reparar com a exposição ao sol", afirmou à Reuters Marek Urban, da University of Southern Mississippi em Hattiesburg e autor do estudo publicado na Science . "Basicamente, se for feito um risco esse risco desaparece com a exposição ao sol", diz Urban numa entrevista no site da revista. O produto criado recorreu a uma substância encontrada no exosqueleto de animais marinhos como camarão e caranguejo chamada quitosana. Esta substância é incorporada em materiais de poliuretano tradicionais, como os usados noutros revestimentos para proteger a tinta. Quando um risco acontece e danifica a estrutura química da tinta, a quitosana responde aos raios ultravioleta e forma cadeias que se unem a outras materiais na substância e, aparentemente, conseguem o efeito de eliminar o risco. O processo pode demorar menos de uma hora.

O investigador principal refere que o facto deste produto se basear em materiais facilmente disponíveis poderá oferecer várias vantagens em comparação a outras substâncias usadas para reparar tintas que são "consideravelmente elaboradas e economicamente inviáveis". A equipa de investigadores testou as capacidades deste produto recorrendo a uma lâmina de barbear usada para desenhar um risco fino num carro. "Ainda não fizemos testes para avaliar a largura que este risco pode ter", avisa Marek Urban, acrescentando ainda que a experiência revelou que o produto não resulta em riscos repetitivos, ou seja, o risco apenas pode ser reparado um vez no mesmo local. "Obviamente este é uma das desvantagens", admite, adiantando, no entanto, que a possibilidade de termos dois riscos no exacto mesmo sítio é baixa. Entretanto, o investigador nota ainda que este produto poderá ser usado em embalagens em mobília ou qualquer outra coisa que necessite deste tipo de manutenção.
Público

CERN lança site para audiência entre os 7 e os 12 anos

O Laboratório Europeu de Física de Partículas conhecido por CERN (Centro Europeu para a Investigação Nuclear), onde se encontra o célebre acelerador de partículas LHC, lançou hoje um novo site dirigido aos mais novos. Chama-se CERNland e foi desenvolvido para assinalar os 20 anos da organização europeia. Entre outros "iscos" para atrair a atenção dos mais novos, o site (http://www.cern.ch/cernland) dispõe de jogos de vídeo. filmes e oferece a possibilidade de downloads, entre outras aplicações de multimédia.

O site é pesado e pode demorar um pouco a carregar. É que são muitos jogos e brincadeiras para ajudar os mais pequenos a aprender ciência de forma mais fácil e rápida. Sempre com ajudas preciosas do CERN. Um exemplo: O "Super Bob" que nos ajuda no desafio do grande acelerador.

Porque a sociedade precisa cada vez mais de físicos e eles são cada vez menos nos cursos universitários, o alvo do CERN são os mais novos. "A sociedade precisa de mais físicos a trabalhar para uma série de indústrias e a forma de captar estas pessoas é envolvê-las desde cedo no tipo de descobertas científicas que fazemos aqui no CERN, que trata de algumas das mais fundamentais questões do Universo", constata o director do CERN, Rolf Heuer, no comunicado enviado hoje

O veterano da Web Robert Cailliau, que trabalha nesta área há cerca de 20 anos, é o responsável pelo site que contou ainda com a colaboração de profissionais da área da educação e a participação de alguns jovens que testaram esta nova ferramenta e contribuíram para o seu desenho final.




Público

Especialista ‘tranquiliza’ alunos do IST

Michelangelo Mangano, físico teórico do Centro Europeu de Investigação Nuclear (CERN), esteve ontem no I. S. Técnico, onde deu uma aula sobre a física realizada no maior acelerador de partículas do Mundo. Michelangelo apresentou argumentos que “garantem a segurança de toda a experiência”.


“Os cépticos têm de confiar nos profissionais que estudam estes fenómenos. Desde a sua formação que a Terra é atingida por raios cósmicos e ainda não desapareceu. Logo, é totalmente seguro”, afirmou. João Varela, investigador português do CERN, também esteve presente.

A.P.

O problema do lítio primordial

Foi o notável luso-brasileiro José B. de Andrada e Silva (um dos mentores da independência do Brasil) que descobriu, numa ilha perto de Estocolmo, o minério petalite, importante fonte de lítio (Li). Em 1817, cerca de 17 anos depois da sua descoberta, ao estudar a petalite, o químico sueco J. Arfwedson identificava finalmente o lítio enquanto novo elemento químico.

Aquando da nucleossíntese primordial, cerca de três minutos depois do Big Bang, o Universo produzia sobretudo hidrogénio e hélio e diminutas quantidades de lítio e berílio. As previsões da nucleossíntese primordial registaram retumbante sucesso quando comparadas com as abundâncias observadas, excepto para o lítio, o que é conhecido como “problema do lítio primordial”.

Julga-se que as abundâncias actuais do isótopo 7Li resultam essencialmente da nucleossíntese primordial, pois a maioria das estrelas não produz grandes quantidades de lítio. Embora as reacções de fusão termonuclear da cadeia protão-protão possam produzir o elemento no interior estelar, este será rapidamente destruído pela reacção (p, α), ou seja, o lítio desaparece em favor da criação de partículas alfa (núcleos de hélio). Já nas reacções nucleares ocorridas, por exemplo, entre o 12C com raios cósmicos no meio inter­estelar, a produção de lítio vê-se aumentada significativamente, em particular a do isótopo 6Li. Assim, o lítio produzido pelos raios cósmicos acaba por se misturar com o meio interestelar e ulteriormente torna-se parte das estrelas. Além disso, algumas estrelas de carbono (que são estrelas de gerações mais recentes, envelhecidas e frias, que podem ser do tipo “gigante vermelha”) são particularmente ricas em lítio, com abundâncias muito superiores às das estrelas (pouco evoluí­das) das primeiras gerações, pobres em metais. Para testar a abundância primordial de lítio, há, pois, que observar as estrelas mais velhas da nossa galáxia, aquelas cuja composição é mais antiga e menos evolução sofreu. Acontece que essas medidas revelam abundâncias três a quatro vezes inferiores às previstas pela nucleossíntese primordial!

Entre as respostas para o problema, sugere-se que o lítio primordial foi gradualmente destruído nas estrelas mais velhas, ao difundir-se no seu interior. A eficiência de tais reac­ções nucleares responsáveis pelo desaparecimento gradual do lítio é, porém, ainda hoje alvo de debate, bem assim como a extensão da supostamente “reduzida” camada convectiva de estrelas pobres em metais, onde se dará a destruição do elemento. A juntar-se à complexidade do problema vem a recente descoberta (assente numa crescente amostra observacional) de que as estrelas que possuem exoplanetas apresentam abundâncias de lítio até cem vezes inferiores às das estrelas sem planetas. Isto poderá justificar a muito baixa abundância de lítio no Sol, conforme argumenta a equipa que inclui o português Nuno Santos. Não é claro, porém, como a presença de planetas afecta a destruição de lítio na estrela ou no sistema planetário.

Não existindo ainda uma resposta robusta para todo o problema, uma equipa de astrofísicos sul-africanos sugeriu recentemente uma solução “mais simples”, na mesma linha de ideias que viola o Princípio de Copérnico, conforme referido na ultima crónica. Se o Universo não for homogéneo e isotrópico localmente, se vivermos num vazio relativo local, então quer as baixas abundâncias de lítio primordial quer a aparente aceleração da expansão do Universo poderão encontrar soluções em tais modelos “vazios”, evitando-se a necessidade da existência de energia escura.

Super Interessante

Novo elemento químico chama-se Copernício

A mais recente entrada para a tabela periódica de elementos químicos já tem nome. Chama-se Copernício e o seu símbolo químico é Cn.

Inicialmente conhecido como Unúnbio (Ununbium), o elemento químico descoberto em 1996 é o mais pesado da tabela periódica.

Este composto químico resulta da fusão de átomo de zinco -70 com átomo de chumbo -208, obtido através da acelaração de núcleos de zinco sobre um alvo de chumbo.
Apesar de ter sido reconhecido pela União Internacional de Química Pura e Aplicada (IUPAC), a 11 de Julho de 2009, só recentemente se de a confirmação oficial do seu nome.

Isabel Chaves

Física e Química - Vídeo - As 3 Leis de Newton

Peixes ensinam a gerar electricidade

Cientistas da Universidade de Michigan, nos Estados Unidos, descobriram uma nova tecnologia para gerar electricidade a partir de correntes de água que se movem lentamente, como os rios em regiões sem quedas de água ou mesmo o movimento dos oceanos.

O equipamento, a que deram o nome de Vivace, nasceu da observação dos peixes e de como eles lidam com as turbulências para se movimentarem de forma eficiente. Essa nova forma de exploração da energia não depende de ondas, marés, turbinas e nem represas – apenas das vibrações induzidas pelos remoinhos.

O Vivace copia alguns aspectos da tecnologia dos peixes, que curvam os seus corpos para deslizar entre os vórtices criados à sua frente. Apenas recorrendo aos seus músculos não poderiam ser impulsionados através da água na velocidade em que nadam.

A simples presença do Vivace na corrente de água cria vórtices alternados acima e abaixo dele. Os vórtices empurram e puxam cada cilindro para cima e para baixo ao longo das suas molas. Esta energia mecânica é utilizada para accionar um gerador, que produz a electricidade.

C.M.

segunda-feira, 25 de abril de 2016

Física e Química - Vídeo - Einstein - Teoria da Relatividade

Física e Química - Vídeo - Grandes questões sobre o Universo

Física e Química - Vídeo - Pensamentos e frases de Albert Einstein

Os hologramas em tempo real já chegaram

Os hologramas em tempo real chegaram e fizeram a capa da revista Nature desta semana. Uma equipa do Arizona produziu imagens em 3D a formarem-se em tempo real que podem ser observadas sem qualquer tipo de óculos com a ajuda de um ecrã.

“Digamos que eu quero dar uma palestra em Nova Iorque. Tudo o que preciso é um conjunto de câmaras aqui no meu escritório em Tucson [no Arizona] e uma ligação de internet rápida”, explicou por comunicado o professor Nasser Peyghambarian, líder da equipa. “No outro terminal, em Nova Iorque, haveria uma mostra 3D onde se usava o sistema de laser. À medida que os sinais de imagens são transmitidos, os lasers inscrevem-se no ecrã e transformam-se numa projecção a três dimensões de mim a falar”, acrescentou.

O protótipo utiliza um ecrã de dez polegadas feito de um material novo, um polímero capaz de recriar o processo pelo qual nós observamos naturalmente a três dimensões as imagens que vemos.

Com esta tecnologia, as imagens são gravadas num local com várias câmaras e a informação é codificada em pulsos de raio laser a uma grande velocidade. Estes raios laser interferem com outros raios que servem como referência base. É o padrão desta interacção que é inscrito no ecrã. Cada laser grava um “hogel” – um pixel holográfico que tem três dimensões.

“No coração do sistema está um ecrã capaz de actualizar o holograma a cada dois segundos, tornando-o no primeiro sistema a alcançar uma velocidade que pode ser descrita como sendo quase a tempo real”, disse Pierre-Alexandre Blancem professor na Universidade do Arizona, primeiro autor do artigo da Nature.

Uma das grandes novidades que este objecto traz é a capacidade da paralaxe. Quando se olha para o ecrã, ao mover-se a cabeça para a esquerda e para a direita, ou para cima e para baixo, vemos diferentes perspectivas do objecto.

A técnica vai ser aperfeiçoada para se tornar mais rápida e com várias cores, mas os autores já adivinham a utilização da tecnologia no entretenimento, na publicidade, na produção de mapas 3D que se actualizam e na telemedicina. “Cirurgiões em diferentes locais do mundo podem observar em 3D, em tempo real, e participarem nos procedimentos cirúrgicos”, defendem os cientistas.


Público

Só tem um átomo de espessura, é quase transparente... é o grafeno e valeu um Nobel

Imaginemos o traço deixado por um lápis numa folha de papel. Se lhe passarmos a mão por cima, facilmente se esborrata. Acabámos de espalhar no papel várias camadas de grafite, a forma de carbono de que são feitos os vulgares bicos dos lápis. Mas se continuássemos a esborratar o traço a lápis, talvez acabássemos por ter uma única camada de átomos e, então, estaríamos na presença de uma nova forma de carbono — o grafeno.

Andre Geim, de 51 anos, e Konstantin Novoselov, de 36, foram premiados por libertarem da natureza uma forma de carbono nova (DR)

Foi mais ou menos isto que fizeram dois cientistas, nascidos na Rússia mas a trabalhar no Reino Unido, na Universidade de Manchester, e que resultou na descoberta do grafeno. Até 2004, não passava de uma hipótese, com décadas de especulação. Nesse ano, em Outubro, Andre Geim e Konstantin Novoselov publicaram na revista Science o artigo em que anunciaram a existência real do grafeno e lançaram o entusiasmo na comunidade científica mundial, devido a uma variedade de possíveis aplicações, desde a criação de novos materiais até ao fabrico de electrónica inovadora.

Só que, em vez de espalharem o traço a lápis, Geim e Novoselov utilizaram uma fita adesiva para retirar pequenos fragmentos de um grande pedaço de grafite. No início, os fragmentos retirados tinham muitas camadas de grafite, mas à medida que repetiam o processo, iam-se tornando cada vez mais fininhos. Era a altura de procurar esses fragmentos de grafeno entre as camadas de grafite extraídas.

Tiveram ainda de encontrar uma maneira para que o grafeno saísse do seu anonimato, camuflado entre a grafite, e se desse a ver no microscópio. E o que surgiu foi um material bidimensional (com comprimento e largura apenas, pelo que é plano), quase transparente e que existe à temperatura ambiente.

Esta forma plana de carbono, com a espessura de um único átomo, apresenta-se com o padrão básico do favo de mel, pelo que é ainda composta por seis átomos de carbono ligados entre si. E esses seis átomos ligam-se a outros e a outros, formando uma rede de milhões e milhões de átomos do material que é o grafeno.

Hoje, esta descoberta valeu a Geim, de 51 anos, naturalizado holandês, e Novoselov, de apenas 36 e nacionalidade russa e britânica, o Nobel da Física, no valor de dez milhões de coroas suecas (um milhão de euros). No seu comunicado, a Real Academia das Ciências Sueca justifica a atribuição aos dois físicos “pelas experiências pioneiras sobre o material bidimensional grafeno”.

Aprisionado dentro da grafite, o grafeno só estava à espera de ser libertado, sublinha a informação divulgada pela academia sueca. “Ninguém pensava que tal fosse realmente possível”, lê-se. Muitos cientistas consideravam impossível isolar materiais tão finos, que ficariam instáveis, por exemplo enrolar-se-iam à temperatura ambiente ou desapareceriam.

O novo material libertado não é só o mais fino de todos, é também o melhor condutor de calor. E como condutor de electricidade, é tão bom como o cobre: se for misturado com plástico, pode resistir mais ao calor e ser robusto do ponto de vista mecânico. Também é leve e elástico, podendo ser esticado até 20 por cento do seu tamanho original.

Por todas as suas características, pensa-se que pode vir a permitir o fabrico de novos transístores, mais rápidos do que os actuais de silício, que resultarão em computadores mais eficientes. Ou em novos super-materiais, que os futuros satélites, aviões ou carros incorporarão. Ou em novos ecrãs de cristais líquidos tácteis.

“Estou em estado de choque”, reagiu Novoselov, após um silêncio. “É uma loucura.” Também Geim foi apanhado de surpresa: respondia a e-mails e lia papeladas quando o telefone tocou. “Estou bem, dormi bem, não esperava o Nobel este ano”, declarou depois. “Os meus planos para hoje? Voltar ao trabalho”, garantiu Geim, citado pela AFP. “Há duas categorias de laureados dos Nobel: aqueles que deixam de fazer o que quer que seja até ao fim da vida, o que é um mau serviço à comunidade. E aqueles que pensam que as outras pessoas vão pensar que ganharam por acaso e começam a trabalhar ainda mais.”

Leitor de MP3 para surdos

Um designer sul-coreano desenvolveu um gadget que vai permitir aos deficientes auditivos ouvir música, anunciou o site brasileiro 'Globo'.

Este leitor de MP3 chama-se 'Sounzzz' e transforma o som numa combinação de vibrações e luzes que vão permitir ao seu utilizador ter a sensação de que está a ouvir música.

Poderá, também, ser ligado a um computador portátil, tornando possível sentir os efeitos sonoros do filme.

O aparelho assemelha-se a uma almofada e para o utilizar basta encostá-lo ao corpo. A partir daí, as vibrações vão-se espalhar e a música vai-se produzir conforme os intervalos, cadência e ritmo que contém.

Ainda não há data para a sua comercialização.


Encontrada amostra de plutónio usada em bombas do Projecto Manhattan

Investigadores norte-americanos anunciaram ter encontrado, num depósito de lixos radioactivos, aquela que é a mais antiga amostra de plutónio produzido num reactor nuclear com vista ao fabrico de armas nucleares. A amostra, contida numa vulgar garrafa de vidro, constitui uma “relíquia” do Projecto Manhattan, desenvolvido durante a II Guerra Mundial e que culminou nos bombardeamentos de Hiroshima e Nagasaki.

Segundo a BBC online, a garrafa foi encontrada em Dezembro de 2004 por pessoal responsável pela limpeza de um aterro em Hanford, no estado de Washington (Costa Oeste), onde funcionou aquela que foi a primeira unidade mundial de produção de plutónio, a partir do reprocessamento de combustível usado em centrais nucleares.

A garrafa, que estava dentro de um cofre enterrado no local, continha um “líquido pastoso branco” e análises posteriores vieram confirmar que se tratava de plutónio processado naquela unidade em 1944, a partir de urânio usado num reactor experimental no Tennessee, em funcionamento desde o ano anterior, ao abrigo do Projecto Manhattan.

Segundo os investigadores, parte deste plutónio foi usada no Trinity, o primeiro ensaio de uma arma nuclear, realizado a 16 de Junho de 1945, e na bomba atómica largada sobre a cidade japonesa de Nagasaki, dois meses depois.

Os investigadores afirmam que mais do que o valor histórico do achado, a “arqueologia nuclear” que lhes permitiu identificar esta amostra será útil no avanço das técnicas forenses usadas para localizar a origem de materiais nucleares que sejam desviados.



Público

Habitação "low-cost"

Construir uma casa, mudá-la à medida das necessidades, acrescentar quartos ou eliminá-los, sem necessidade de obras, sem os inconvenientes do tijolo e do betão, sem sujidades e incómodos, respeitando o ambiente e com toda a segurança, a um preço baixo. Um sonho longínquo? Talvez não! As casas acessíveis estão aí e prometem dar resposta a tudo isto.

O desafio da ArcelorMittal, o maior grupo mundial da indústria do aço, foi lançado aos 16 grupos de investigação que constituem a Rede Científica Internacional de Estruturas Metálicas, uma organização que reúne as universidades líderes em investigação nesta área, do Brasil, da China, da Índia, da Polónia, de Portugal, da República Checa, da Roménia e da Suécia. Os investigadores das 16 instituições aceitaram-no e responderam com projectos de fácil implementação no mercado dos respectivos países.

Em Portugal, a tarefa foi entregue a doze investigadores de diversas áreas, da engenharia à arquitectura, liderados pelo professor Luís Simões da Silva, do Instituto para a Sustentabilidade e Inovação em Engenharia Estrutural da Faculdade de Ciências e Tecnologia da Universidade de Coimbra (FCTUC), que apresentaram um novo conceito de habitação construída com recurso a aço leve. A solução desenvolvida assenta na definição de uma configuração de base que permite uma boa organização funcional a partir de um número limitado de formas originais, como no popular jogo de computadores Tetris. A utilização de aço leve, nome popular para a utilização de perfis em aço enformado a frio, permite materializar facilmente uma combinação muito versátil das várias formas originais. "Os objectivos a responder eram a modularidade, a adaptabilidade, a sustentabilidade, o conforto, a segurança das pessoas e a eficiência energética", refere o coordenador do projecto, adiantando que o custo das novas casas "é muito baixo: são cerca de 550 euros por cada metro quadrado construído, o que equivale a uma redução de 28 por cento dos custos de construção".

Simões da Silva frisa também que o projecto da FCTUC responde ao critério da evolução familiar. "É fácil de construir e de desconstruir. À medida que a família aumenta, pode-se sempre acrescentar mais um módulo. Num dia, as pessoas podem reformular a casa e passar de dois quartos para um, ou aumentar um, porque todo o processo é modular e é muito fácil ampliar a casa e mudar a tipologia, sem ter de sair de casa."

"As casas tradicionais perdem muito espaço em áreas não utilizáveis, como é o caso dos corredores. Percebendo o transtorno causado em obras de adaptação, há uma aposta em novos modelos de espaço utilizável e em módulos facilmente desmontáveis e manipuláveis", afirma o docente. Sobre a arquitectura, afiança que se mantém a traça original da casa portuguesa.

Bons isolamentos

Simões da Silva garante também que os testes desenvolvidos às novas construções, "em termos de conforto térmico e isolamento acústico, entre outros, revelaram performances muito melhores do que as da construção convencional". No Verão, estas casas não têm praticamente requisitos de arrefecimento, e, de Inverno, a necessidade de aquecimento é muito inferior à de uma construção comum. Os testes às condições funcionais das habitações evidenciaram ganhos significativos na eficiência energética e no conforto térmico, e as simulações numéricas dinâmicas validaram estes resultados.

A facilidade de transporte e a rapidez de execução da obra são outro lado positivo destas novas casas: "Uma vez construídas, cabem num contentor. Podemos produzi-las em Portugal e construí-las na Austrália com a mesma qualidade de estética e conforto para os utilizadores. São casas que estão imediatamente prontas a habitar e respondem a todas as exigências, incluindo as climatéricas." O conceito é extensível a blocos de apartamentos até quatro andares, respondendo assim a mais de 90 por cento das necessidades do país. A apresentação mundial da solução para blocos de apartamentos será feita em Setembro, em Istambul (Turquia).

Luís Simões da Silva explica que, para a casa ser viável em qualquer região do país e obedecer às regras de construção em vigor, foi projectada para a pior região sísmica, o Algarve, para ter neve correspondente à zona da Serra da Estrela e vento correspondente à zona costeira. Quer isto dizer que, com sol ou com neve, com vento ou com chuva, nada prejudica estas casas, que deixam ainda de ter, quando devidamente montadas, os inconvenientes da construção tradicional, incluindo o que se refere a infiltrações de água, humidades, bolores, etc.

Por outro lado, os perfis em aço leve são extremamente resistentes, o que se traduz em construções mais ligeiras e com menores emissões de dióxido de carbono (cerca de um terço quando comparadas com soluções arquitectónica e funcionalmente equivalentes com recurso à construção tradicional). Assim, a solução desenvolvida vai também ao encontro de lógicas mais amigas do ambiente, já que, "pela sua natureza construtiva, foi uma preocupação inicial a possibilidade de reciclagem e de reutilização exaustiva das matérias-primas usadas". "Ao optar por uma estrutura de utilização de aço intensiva, é possível ter o mesmo grau de isolamento térmico com paredes mais finas, ou seja, numa mesma área de construção, temos mais espaço útil, sem aumentar os custos", explica o investigador.

Talvez, afinal de contas, a tal casa de sonho esteja prestes a chegar a uma grande superfície perto de si. Sim, porque estas serão casas de comprar e montar. Fique atento!

M.M.

Torre transportável representa Portugal na Expo Xangai 2010

A presença portuguesa na Exposição Mundial de Xangai, a maior de sempre desde 1865, tem um segundo espaço, para além do pavilhão nacional forrado a cortiça. É a Torre Turística Transportável (TTT), um projecto com tecnologia e desenvolvimento cem por cento portugueses.

Com nove metros de altura, três de largura e outros tantos de profundidade, a TTT, que se integra no tema da Expo Xangai 2010, Melhor Cidade, Vida Melhor, possui três pisos na sua posição vertical. Funcionando como espaço autónomo, divide-se em cozinha e espaço de refeições, zona de estar e escritório, quarto, varanda exterior e duas instalações sanitárias.

O projecto português é potencialmente auto-suficiente e, dado o reduzido impacto construtivo, vocaciona-se para o turismo de Natureza, podendo ser incluído em cenários naturais e ambientes diversos onde não haja infraestruturas, como é o caso de praias, florestas ou campos.

A torre pode ainda ser colocada na posição horizontal, como é transportada, dando resposta simultânea ao mercado residencial, incluindo em contexto urbano.

A TTT foi concebida pelo arquitecto José Pequeno, com o apoio da empresa DST (Domingos da Silva Teixeira) e da Universidade do Minho, e assume-se como um projecto multifuncional de arquitectura sustentável que privilegia simultaneamente a evolutividade urbana, a modularidade, a integração ambiental e a mobilidade turística.

Além de poder ser visitado, este segundo pavilhão português em Xanghai pode ser visto a partir de um ecrã instalado no pavilhão de Portugal. Existe ainda uma réplica à escala 1:3 na Área de Boas Práticas Urbanas, um espaço da exposição reservado aos melhores exemplo no âmbito da arquitectura sustentável e das soluções urbanas.

José Teixeira, CEO do grupo DST, que pretende iniciar a produção em série da TTT já em 2011, explica que este projecto vai estar patente diante de cerca de 70 milhões de pessoas, pelo que "a empresa está bastante confiante de que irão surgir novas oportunidades de negócio para um produto industrializado e pré-fabricado que representa um novo conceito turístico e habitacional".

Definida como tendo "design minimal e forte imagem expressiva, audaz ao nível da solução estrutural", a TTT combina iluminação natural e potencial energético, tendo também sido estudada para evitar dissonâncias com o ambiente, optimizar os processos de construção, reduzir os resíduos resultantes e diminuir os consumos energéticos do edifício.

super interessante 148 
Related Posts Plugin for WordPress, Blogger...

Mensagens populares

Emprego Docente

Noticias da Educação

Recomendamos ...