Você está na página 1de 87

FQ em rede - comunidade web 2.

0 de Física e Química

Brochura comemorativa de 2 anos “À Conversa com os Pros”


[ Abril 2011 a Abril 2013 ]

A todos os especialistas que acederam ao nosso convite e participaram connosco


nestas conversas, moderando e animando o fórum o nosso muito obrigado!
Graças a vós e ao que partilharam connosco, ficámos todos um pouco mais ricos.
Demos voz às nossas interrogações e encontrámos respostas a outras que ainda nem
sequer tínhamos antecipado. Bem hajam!
Índice

Energia Nuclear [Bruno Gonçalves] ................................................................................................... 4

Detergência Química [Isabel Lucas] ................................................................................................ 11

Radiação Eletromagnética em Comunicações Móveis [Mónica Branco]..................................... 14

Formação e Constituição do Universo [João Retrê e Ismael Tereno] ........................................... 17

Alterações climáticas e destruição camada de ozono [Ana R. Antunes e Francisco Ferreira] ... 25

Física das Partículas [Pedro Abreu] .................................................................................................. 28

Refinação do petróleo [José Inverno] .............................................................................................. 34

Teoria da Relatividade, GPS, neutrinos e mais [Paulo Crawford]... ............................................. 44

Deteção de metais no organismo humano e outras técnicas CSI [João Valente Nabais] .......... 52

Radiação Espacial e Ambiente [Ana Keating] ................................................................................. 55

Acidez e Basicidade [Maria Filomena Camões] .............................................................................. 66

2012: O fim do Mundo?! [João Fernandes] .................................................................................... 74

O Bosão de Higgs e o futuro da Física das Altas Energias [Pedro Abreu] .................................... 77

Metais e ligas metálicas: pilhas e corrosão [Anabela Boavida] .................................................... 82

A Química do Amor [Paulo Ribeiro Claro] ....................................................................................... 85

2/87
Nota Explicativa

Em cada uma das conversas temáticas procurámos, apenas, sintetizar os principais


tópicos abordados, de modo a disponibilizar, de forma sumária, informação essencial
sobre os vários assuntos.

Os textos aqui apresentados resultam, sobretudo, da transcrição dos depoimentos


escritos dos especialistas convidados (todos os créditos lhes são devidos). As
conversas podem ser consultadas na integra acedendo ao site da FQ em rede >
Conversa c/ Pros.

A ideia é disponibilizar a todos os membros da comunidade um documento


informativo, cientificamente credível, que pode funcionar quer como introdução a
algumas temáticas, quer como ponto de partida para incursões mais aprofundadas em
torno das diversas temáticas. Uma espécie de caderno de apontamentos!

Podem partilhar este documento com colegas e amigos (até porque ele está disponível
na web a todos os utilizadores). Contudo ele, ou seus derivados, não pode ser usado
com fins comerciais.

3/87
Abril 2011 Energia Nuclear
Bruno Gonçalves, Centro de Fusão Nuclear/ Instituto Superior Técnico

Vantagens e inconvenientes da energia nuclear


A grande vantagem da energia nuclear é a sua eficiência uma vez que com uma
quantidade muito menor de combustível que a necessária em qualquer processo
químico (e.g combustão) liberta uma muito maior quantidade de energia. A ausência
de emissão de gases causadores de efeito de estufa é também uma vantagem que não
pode ser ignorada. É necessário ter em conta que, apesar do debate se já atingimos ou
não o pico de exploração do petróleo, que este se esgotará num prazo curto. A
humanidade, a manter a actual tendência de consumo energético necessitará duma
alternativa para produção de electricidade em larga escala (Proposta: calculem qual a
quantidade de electricidade adicional seria necessário para substituirmos todo o nosso
parque automóvel por carros eléctricos. Como iremos produzir essa electricidade?). A
fissão nuclear teve no passado alguns problemas de segurança (o reactor de
Fukushima é um reactor de 2ª geração com 40 anos). No entanto, é preciso ver que a
tecnologia tem evoluído e as novas centrais de fissão são mais seguras.
A fusão nuclear poderá providenciar uma fonte praticamente inesgotável de energia
para produção de electricidade. Os combustíveis que serão utilizados, deutério e lítio
(de onde se extrai por processos nucleares o trítio para as reacções de fusão) são
abundantes na natureza. O processo é bastante eficiente: com 600 Kg de combustível
de fusão nuclear pode-se produzir a mesma energia que a produzida por 10 milhões de
barris de petróleo. ´também importante nesta discussão distinguir entre fissão nuclear
e fusão nuclear.
A fusão nuclear resulta da fusão entre dois isótopos de hidrogénio (deutério e trítio),
um processo semelhante ao que ocorre no interior das estrelas. A energia libertada no
processo de fusão nuclear é cerca de 100 vezes maior que a energia libertada num
processo de cisão nuclear com a mesma quantidade de combustível. Tal como a cisão
nuclear a fusão nuclear não produz gases que contribuam para o efeito de estufa mas
a grande vantagem da fusão nuclear reside em ser um processo intrinsecamente
seguro. Para obtermos fusão é necessário aquecer o plasma até temperaturas muito
elevadas e a reacção apenas ocorre em condições adequadas de temperatura e
densidade. Uma vez que o combustível apenas é introduzido no reactor em

4/87
quantidades pequenas (da ordem das dezenas de grama) e à medida que vai sendo
consumido, em caso de falha a reacção não ocorre e todo o processo extingue-se. Este
conjunto de condições tornam a fusão nuclear um processo resiliente a acidentes
causados por perda de controlo do processo.
Sendo um processo nuclear que produz neutrões a fusão nuclear produzirá alguma
activação de materiais no interior do reactor. No entanto, ao contrário do caso da
fissão nuclear, o nível de radioactividade destes resíduos decai rapidamente (~50 anos)
para valores seguros eliminando a necessidade de os armazenar por milhares de anos.

Os novos reactores
Para fazer face às necessidades futuras e aos níveis de segurança exigidos à indústria
nuclear, os construtores nucleares europeus, americanos e japoneses têm vários
projectos de novos reactores em fases de investigação e desenvolvimento,
planeamento, aprovação pelas Autoridades Reguladoras ou, finalmente, já em
construção. A nova geração de reactores obedece a padrões de segurança muito
rigorosos não existentes há duas décadas atrás e nas anteriores gerações de reactores.
As novas gerações de reactores nucleares (denominadas de Gerações III, III+ ou IV),
exploram novos conceitos no aproveitamento da energia nuclear e apresentam várias
vantagens:
• Projecto estandardizado para cada modelo de modo a facilitar o licenciamento,
reduzir os custos de investimento e diminuir o tempo de construção;
• Projecto mais simples e austero, maior facilidade de operação e menor
vulnerabilidade a distúrbios operacionais;
• Vida útil mais longa (tipicamente 60 anos) de modo a reduzir o impacto dos custos
de construção e desmantelamento no preço do kW de electricidade;
• Seguras devido à redução da possibilidade de derretimento da câmara do reactor,
ao uso de barreiras de protecção que evitam o escape de materiais radioactivos
para o exterior e ao recurso a sistemas múltiplos de segurança que garantem que a
falha dum componente não compromete a segurança e integridade do sistema;
• Ponto de queima mais elevado, de modo a reduzir a quantidade de combustível
utilizado e o lixo produzido (em alguns designs apenas 3% do combustível utilizado
necessitará de armazenamento permanente);
• Economicamente mais competitivos.

5/87
Afastado o problema da proliferação de armas nucleares e dos riscos associados à
segurança de um reactor, os resíduos são o problema mais importante que ainda
necessita duma solução duradoura. Estes são constituídos por elementos pesados,
activados na operação do reactor, que levam milhares de anos a perder a
radioactividade e para os quais é necessário saber como e onde tratá-los. Apesar de já
produzidos em menor quantidade nas centrais de nova geração, a produção destes
poderá ser ainda mais reduzida com a quarta geração de reactores de ciclo fechado
(80% menos que os actuais) com capacidade para tratamento total dos seus próprios
resíduos. Outro dos problemas reside no desmantelamento das centrais que é
complexa, morosa e cara, mas que no mundo ocidental segue procedimentos de
segurança muito apertados.
Não obstante todas as dificuldades, a energia nuclear é hoje responsável pela
produção de cerca de 20% da energia eléctrica produzida anualmente na Terra, valor
que poderá aumentar consideravelmente. Existem reservas para algumas centenas de
anos capazes de sustentar o período transitório até à entrada em funcionamento das
intrinsecamente seguras centrais de fusão nuclear.
Apesar da sua génese ser orientada para a produção de energia eléctrica, a energia
nuclear poderá também oferecer algumas potenciais aplicações adicionais:
• Apresenta um caminho prático para a economia do hidrogénio que, como fonte
geradora de electricidade, oferece uma energia limpa, sem emissões e amiga do
ambiente, eficiente e de baixo-custo. O nuclear poderá auxiliar a produção de
hidrogénio para as pilhas de combustível, por electrólise da água, fornecendo
energia mais barata ou com produção directa usando o excesso de calor nas
centrais de quarta geração.
• Poderá auxiliar a resolver o problema crescente da falta de água doce para
consumo humano e irrigação de colheitas. Globalmente são usados processos de
dessalinização como uma forma de criar água potável. Através do uso do excesso
de calor dos reactores nucleares, a água poderá ser dessalinizada e suprir a procura
crescente de água doce.
Para que a energia nuclear desempenhe um papel significativo, as decisões terão de
ser tomadas na próxima década. No médio-prazo, cerca de 400 dos reactores
existentes necessitarão de ser substituídos e novos locais de implantação terão de ser
identificados. Embora o nuclear não seja ainda uma opção para muitos países

6/87
desenvolvidos, alguns começam a rever os seus planos energéticos, a relançar o
debate e a reequacionar a inclusão desta forma de energia no seu portfólio energético.
Em muitos destes países o conhecimento científico e capacidades industriais foram
sendo perdidos como resultado da desnuclearização do seu parque energético. A
procura futura exigirá capacidade para construir não apenas a actual geração de novos
reactores com segurança e sistemas operacionais melhorados, mas também reactores
de dimensões pequenas e médias para aplicações não eléctricas e necessidades de
produção mais reduzidas. A indústria nuclear e os governos enfrentam o desafio
adicional de investir em transferência de tecnologia e formação de recursos humanos
para que a expansão nuclear possa responder às necessidades energéticas futuras.

Futuro da fusão nuclear


Até ao momento o maior dispositivo de fusão em operação, o Tokamak JET (Oxford,
Reino Unido) conseguiu produzir durante alguns segundos, em energia de fusão (não
electricidade), 60% da energia que foi gasta a aquecer o plasma tendo atingido 90%
num pico de 1 segundo. O próximo passo será dado após a conclusão da construção do
tokamak ITER (International Thermonuclear Experimental Reactor) em Cadarache,
França. Este projecto visa provar a viabilidade científica e técnica da energia de fusão e
prevê-se que produza 500 MW de potência de fusão durante 300 segundos (o que
corresponde a cerca de 10 vezes a potência introduzida para aquecer o plasma). O
ITER terá o primeiro plasma (de hidrogénio apenas) em 2019 prevendo-se a operação
com deutério e trítio em 2025. Este é um passo essencial no sentido de produzir um
primeiro reactor comercial de demonstração para produção de energia eléctrica. Este
reactor deverá estar em operação em 2040. Existem vários programas de investigação
na física e desenho conceptual deste reactor, desenvolvimento, teste e qualificação de
materiais, sensores, controlo, etc, que visam enfrentar os desafios e acelerar a
construção deste reactor de demonstração. Todos estes passos são essenciais para
que a fusão possa tornar-se a energia do futuro. O esforço necessário para o conseguir
é considerável no entanto, para bem da humanidade, temos de saber se é viável uma
vez que é das poucas tecnologias com potencial para produzir energia de forma
segura, em larga escala, sem produção de CO2 e com combustível abundante.

7/87
Vantagens da fusão nuclear
Mais limpa:
• não produz gases causadores de efeito de estufa,
• O produto da reacção é o Hélio, os combustíveis usados são o deutério (extraído da
água do mar ) e o lítio (os neutrões de fusão por interação com o lítio produzem o
trítio que é na realidade o combustível). No caso do lítio, a verificar-se a tendência
para os futuros carros eléctricos usarem este material para as baterias, poderá
causar alguma competição que leve ao aumento do seu preço. Por outro lado o
aumento da procura tem tendência a melhorar os métodos de extracção e baixar
os preços.
• O trítio é nocivo para o ser humano mas é produzido em pequenas quantidades no
interior do reactor à medida que as reacções de fusão vão ocorrendo.
• Os materiais no interior do reactor ficam activados mas decaem para um valor de
radiactividade inferior ao carvão natural em menos de 100 anos (e a pesquisa de
materiais em curso visa identificar materiais que tenham um tempo de decaimento
inferior a 50 anos)
Mais segura:
• em cada momento apenas existe no reactor o combustível necessário para que
ocorra a reacção (poucas gramas), em caso de falha a injecção de combustível pára
e a reacção extingue-se (para além que é uma reacção que apenas ocorre em
condições óptimas e caso algo esteja subóptimo dá-se uma disrupção ou a reacção
simplesmente extingue-se),
• Os custos indirectos (acidentes, doenças, etc... os custos para a população que não
são contabilizados nos custos directos de construção) da fusão nuclear estima-se
que sejam comparáveis aos da energia energia eólica

Soluções para os resíduos nucleares


De momento, não existe nenhum fim "amigo do ambiente" para os resíduos. No
entanto está previsto que os reactores de fissão de geração IV (os actualmente em
construção são de geração III) consigam também usar parte dos resíduos mais activos
como combustível.

8/87
Existem também ideias interessantes acerca dos chamados "reactores híbridos "que
juntam um reactor de fusão e um reactor de fissão. A fissão produz energia eléctrica
para sustentar a reacção de fusão e a fusão providencia neutrões rápidos de 14 MeV
que auxiliam a "queima" dos resíduos fornecendo também energia. Este conceito está
a ser estudado por alguns grupos de investigação

Quantos geradores eólicos são necessários para perfazer a energia duma central
nuclear (1 GW)?
Assumindo uma eficiência de cerca de 30% da potência instalada - é a média de "aero
electricidade" em relação a potência total instalada que se pode observar no site da
REN. E considerando uma potência unitária de ~2,0 MW por aerogerador, teremos um
valor de potência obtida 0,6 MW/aerogerador. O que significa que são necessários
cerca de 1667 aerogeradores (aproximadamente o número de aerogeradores em
Portugal!). Ou seja, poderíamos substituir todos os aerogeradores por uma única
central de fusão nuclear.
O que também é interessante verificar é que em média o país consome cerca de 4 GW
diários (ou seja, necessitaríamos de ~6500 aerogeradores e se agora eles já parecem
estar em todo o lado...). Do ponto de vista económico é preciso ver que as empresas
apenas estão a investir na eólica por serem subsidiadas (e nós pagamos a factura) de
outra forma não seriam economicamente viáveis. A energia eólica pode ser uma
componente importante do portfolio energético mas dificilmente uma solução única.

Investimentos e subsídios
O investimento na investigação nuclear, comparável aos subsídios que têm sido
distribuídos à eólica e solar, conduziria rapidamente a uma solução que poderia ser
consensual para o público em geral. A energia nuclear, apesar do investimento inicial
continua a ser a mais barata (em França 80% da electricidade é de origem nuclear).
A electricidade de base só poderá ser produzida de três formas: ou através das centrais
hidroeléctricas; ou por centrais térmicas a gás natural, um processo poluente, embora
menos do que o petróleo, mas cujos custos sobem com os deste (estima-se que as

9/87
reservas naturais de gás tenham uma duração comparável às do petróleo); ou através
de centrais nucleares. Uma vez esgotada a capacidade hidroeléctrica, só existe a opção
nuclear para evitar a poluição e a dependência do preço do gás natural e produzir a
electricidade barata necessária ao desenvolvimento do país.
A futura mobilidade eléctrica apenas irá transferir o problema. Iremos eventualmente
reduzir o consumo de combustíveis fósseis por via da queima nos automóveis, mas
aumentar o seu consumo para produção eléctrica (provavelmente, centrais a gás que
são indiscutivelmente menos poluidoras mais ainda assim fonte de CO2). Qual o
excesso de electricidade necessário aquando da substituição do parque automóvel
actual por carros eléctricos? É um facto que irá aumentar o consumo de electricidade e
competir com a redução que medidas de poupança energética possam trazer. E quer a
electricidade venha de Espanha ou de França parte será certamente nuclear.

10/87
Maio 2011 Detergência Química
Isabel Lucas, Egiquímica

Porquê do uso do amoníaco nos detergentes, sendo o produto tão mal cheiroso e até
perigoso?
A razão de ser tão utilizado é por ser um gás. Das bases habitualmente utilizadas em
detergência, todas são sólidos. O que quer dizer que ao secar, a superfície limpa ficará
com um resíduo sólido que a manchará. Utilizando amoníaco, na forma de amónia, e
por ser uma base fraca, há deslocamento do equilíbrio e o amoníaco liberta-se para a
atmosfera, não deixando resíduos. O amoníaco é tóxico. Mas gere-se essa toxicidade
utilizando a menor quantidade possível de amoníaco. Num detergente amoniacal a
percentagem de amoníaco deverá ser bem inferior a 1%. E, com isso, diluem-se os
riscos da exposição à matéria-prima.
E a razão de utilizarmos bases nos detergentes é para maior eficácia do produto. Se o
pH for suficientemente alto vamos fazer reagir as gorduras da sujidade com a base
contida no detergente, saponificando-a.
Não há grandes maneiras de disfarçar o cheiro do amoníaco! Só podemos fazer duas
coisas: usar a quantidade mínima possível de amónia e usar um perfume com notas
parecidas ao cheiro do amoníaco...
Alternativas amigas do ambiente relativamente à utilização do amoníaco não são
fáceis de encontrar. Muitas das matérias-primas que se têm de substituir são muito
eficazes. Foi por isso que se mantiveram no mercado durante tanto tempo e tão
generalizadas. Nunca passei por um nenhuma substituição em que tivéssemos uma
alternativa igualmente eficaz e ao mesmo preço,

E as lixivias?...
As lixívias, especialmente os detergentes clorados, são fantásticas: não só desinfectam,
como também desengorduram bem.
As soluções de hipoclorito também não são muito estáveis (lá está, o cloro é um gás...).
As soluções de hipoclorito são muito alcalinas, para aumentar a estabilidade do
hipoclorito. E por serem muito alcalinas, desengorduram bem.

11/87
Não se deixem confundir por aquela sensação das mãos escorregadias com que se fica
quando mexemos em detergente da roupa em pó, ou em lava louça máquina, ou em
lixívia.

Saponinas são detergentes?


Distingue-se entre detergentes e tensioactivos. Detergentes são as substâncias ou
misturas que contenham sabão e/ou outros tensioactivos e que se destinam a
processos de lavagem e limpeza. Tensioactivos são substâncias, ou misturas,
constituídas por um ou mais grupos hidrófilos e por um ou mais grupos hidrófogos, de
natureza e dimensões tais que lhes permitam reduzir a tensão superficial da água.
Não chamaria detergente às saponinas, porque reservamos esse nome para o produto
de limpeza, mas sim tensioactivos, uma vez que são modificadores da tensão
superficial da água.
As misturas de bases e tensioactivos são particularmente eficazes na remoção de
gorduras, que são as sujidades mais comuns e difíceis. Ao mecanismo de acção dos
tensoactivos acrescenta-se a reacção química das gorduras (ácidos gordos) com a base.
Também existem detergentes ácidos. Esses são particularmente recomendados para
eliminar resíduos de calcário, ou para superfícies que não são resistentes a produtos
alcalinos.

Compatibilidade dermatológica e detergentes antibacterianos


Os detergentes não há nada que obrigue os fabricantes a fazerem testes de
compatilidade dermatológica. é obrigatório avaliar os riscos para a saúde humana da
utilização do produto. Quanto à probabilidade de reacções alérgicas, é obrigatório
identificar no rótulo os conservantes usados e os componentes das essências que são
alergénicos reconhecidos e que estão em concentração superior a 0.01% no produto.
Estes são os ingredientes mais tipicamente problemáticos.
Quanto aos produtos cosméticos e de higiene corporal é obrigatório fazer uma
avaliação da segurança do produto da parte de alguém com formação na área da
saúde. Todas as alegações que se façam para este tipo de produtos têm que se provar.

12/87
Por isso se alegar que é hipoalergénico, alguma prova terá que ser feita às entidades
reguladoras do sector.
Quanto aos sabonetes antibacterianos, substâncias activas oxidantes, como o cloro e o
peróxido de hidrogénio destroem os microrganismos e eles não têm oportunidade de
criar resistência a este tipo de substâncias. Mas com outro tipo de substâncias isso
pode acontecer, e corremos o risco de vir a criar uma superbactéria, resiste o tudo e
mais um pouco.

13/87
Maio-Junho 2011 Radiação Eletromagnética em Comunicações Móveis
Mónica Branco, Projecto monIT

A infra-estrutura das comunicações móveis


O objectivo dos sistemas de comunicações móveis é o de proporcionar um canal de
comunicação entre utilizadores cuja posição é desconhecida e que possam estar em
movimento sem qualquer restrição de localização. Para tal, é necessária uma infra-
estrutura de telecomunicações complexa, cujos elementos visíveis para o público são
os terminais móveis (vulgarmente designados por “telemóveis”) e as antenas das
Estações Base, que fazem a interface entre o utilizador e o sistema.
Os telemóveis são emissores-receptores de rádio de baixa potência. Quando o
utilizador faz uma chamada, é transmitida informação do telemóvel para a estação
base mais próxima, que reencaminha a chamada pela rede móvel até esta chegar ao
seu destinatário. O processo inverso acontece quando o utilizador recebe uma
chamada.

Funcionamento dos telemóveis


Em relação ao funcionamento dos telemóveis, estes não estão sempre a emitir
radiação. Os telemóveis emitem radiação em duas situações distintas:
1) quando estão em comunicação, isto é, quando estamos a fazer ou receber uma
chamada ou receber/enviar mensagens, ou mesmo quando acedemos à internet a
partir do telemóvel.
2) Quando o telemóvel faz sinalização, isto é, durante o dia o telemóvel tem de enviar
um sinal esporádico ao operador a indicar que está ligado e a enviar a sua localização.
O GPS não funciona como o telemóvel, funciona como o rádio ou a televisão, ou seja,
não emite radiação, apenas recebe o sinal dos satélites.

Exposição à radiação
A exposição à radiação pode provocar efeitos biológicos, que podem levar a efeitos
adversos para a saúde.
Estes efeitos dependem do tipo de radiação: ionizante ou não-ionizante. No caso da
radiação ionizante, estas podem produzir alterações moleculares, que por sua vez
podem causar danos no tecido biológico, incluindo efeitos a nível genético. No caso da

14/87
radiação não-ionizante, estes traduzem-se essencialmente no aquecimento do tecido
biológico, que são por isso designados como “efeitos térmicos”.
Em qualquer dos casos existem limites de exposição definidos, que não podem ser
ultrapassados. Se estivermos expostos a valores abaixo desses limites então não
haverá problema. No que toca aos aparelhos que indicou, os fabricantes são obrigados
a garantir que esses limites não são ultrapassados.
Em primeiro lugar e como referimos acima, existem limites de exposição à radiação
eletromagnética definidos (limites estes que estão em vigor na nossa legislação,
baseados numa recomendação da União Europeia) e que consideram tanto a
intensidade como o tempo de exposição. Daí existirem limites diferentes para
exposições pontuais (por exemplo, quando fazemos uma chamada ao telemóvel) ou
exposição contínua (quando vivemos perto de antenas de estação base). Ainda, os
efeitos das radiações no nosso corpo variam consoante a frequência do campo
electromagnético, isto porque nós funcionamos como uma antena, e as antenas são
tão mais eficientes quanto mais o seu tamanho se aproximar do comprimento de onda
da radiação a considerar. Ou seja, os limites têm isso em conta e daí que na gama de
frequências entre os 10 MHz aos 400 MHz, os limites sejam os mais restritivos em todo
o espectro (considerando apenas radiações não-ionizantes) uma vez que é nesta gama
de frequências que a nossa "antena" (o nosso corpo) é mais eficiente.
Em relação aos efeitos das radiações em geral, nas baixas frequências (por exemplo,
linhas de transporte de energia eléctrica) temos essencialmente efeitos não-térmicos,
nas radiofrequências os efeitos são térmicos e nas radiações ionizantes já podem
existir quebras de ligações que levam a danos no ADN (estas informações podem ser
consultadas em detalhe no documento mencionado na resposta anterior).
O Projecto monIT apenas se foca na exposição à radiação proveniente dos sistemas de
comunicações móveis, ou seja, na gama das radiofrequências. Da experiência
enquanto investigadores e analisando os resultados das medidas de radiação feitas por
todo o país (apenas nas radiofrequências), nunca se encontrou nenhum local em que o
valor medido ultrapassasse o limite de exposição mais restritivo e a maior parte dos
locais (cerca de 95% dos locais) estão mais de 100 vezes abaixo deste limite.

15/87
Alguns mitos e ideia erradas
Um dos mitos principais é não utilizar o telemóvel como despertador, com medo de
exposição às radiações. Mas o telemóvel só emite radiações quando está em
comunicação (fazer ou receber chamadas ou mensagens), pelo que essa preocupação
não faz qualquer sentido. E mesmo quando estão a comunicar, os telemóveis
transmitem apenas o mínimo essencial para manter a comunicação (controlo de
potência). Ou seja, se não estiver a comunicar, não há problema nenhum em termos o
telemóvel próximo, pois este não está a emitir radiações.
Outro mito é tentar garantir um afastamento mínimo das antenas. Isto não faz sentido
em termos técnicos, faria com que se tivesse de aumentar a potência para cobrir uma
dada área, e não garante que diminua a exposição, pois as antenas emitem para a
frente, e por isso tipicamente o valor máximo de exposição não é debaixo da antena,
mas a alguma distância da mesma...

Medida de protecção relativamente à radiação emitida pelos telemóveis


Se desejar tomar medidas de protecção, é bastante fácil:
• diminuir o tempo de comunicação.
• Utilizar auricular (ao utilizar auricular, está a afastar o telemóvel de si)
• Afastar o telemóvel nos primeiros segundos quando iniciar uma chamada
(tipicamente ao iniciar a chamada faz sempre um pico inicial mais alto.)

16/87
Outubro 2011 Formação e Constituição do Universo
João Retrê e Ismael Tereno, Observatório Astronómico de Lisboa

O Universo homogéneo e suas implicações


O modelo para o Universo homogéneo (por homogéneo entende-se o estudo do
Universo a uma escala tão grande que os seus constituintes como galáxias, etc, são
apenas perturbações locais na homogeneidade do Universo) baseia-se na Teoria da
Relatividade Geral e no princípio cosmológico. Portanto logo à partida assume-se
como princípio que o Universo é espacialmente homogéneo e isotrópico e que terá
simetria esférica. Sendo homogéneo, todos os pontos do espaço são equivalentes e
logo à partida está rejeitada a noção de fronteira ou limite, caso contrário haveria
pontos próximos de um limite e outros distantes desse limite não podendo portanto
ser equivalentes.
Resolvendo as equações de Einstein nestas condições obtém-se que há vários modelos
possíveis para o Universo: o espaço ter curvatura positiva, ou ter curvatura negativa,
ou ser plano. Em cada um destes 3 casos o espaço poderia em princípio ser estático,
estar em expansão ou em contracção. O leque de possibilidades é portanto vasto. São
as observações que vão permitir decidir qual é o caso que mais se aproxima da
realidade. Observações de Edwin Hubble nos anos 20 mostraram que há expansão;
observações de Supernovas feitas em 1998 mostraram que a expansão é acelerada (o
que conduziu ao prémio Nobel da Física de 2011); observações da Radiação Cósmica
de Fundo (CMB) feitas pela missão COBE lançada em 1989 mostraram que o Universo
é de facto isotrópico e que o espaço é plano (prémio Nobel da Física de 2006).
Sendo o espaço homogéneo e plano, terá de ser infinito. É difícil idealizar um espaço
sem limites, mas no caso de um espaço com curvatura positiva (como a superfície de
uma esfera) a imagem é mais simples. A superfície de uma esfera não tem limites.
Pode-se caminhar indefinidamente sobre a esfera sem encontrar qualquer fronteira.
Do mesmo modo, a expansão é facilmente idealizável pela analogia do balão a encher:
a superfície vai aumentando sem que haja espaço a avançar para lá de algum limite.
Nesta analogia do balão o espaço é apenas a superfície do balão (um espaço com 2
dimensões). Ao longo dessa superfície não há nenhuma descontinuidade. Durante a
expansão os pontos marcados no balão vão-se afastando uns dos outros. No entanto

17/87
uma linha meridiana do balão ocupa sempre 360 graus, não se expande para uma
amplitude angular maior (não existem sequer ângulos maiores que 360 graus).
A expansão do Universo só actua a escalas muito grandes, maiores do que as galáxias.
As galáxias são pequenos pontos no Universo que se afastam umas das outras. Mas
dentro das galáxias as interacções físicas habituais dominam. Assim sendo, as estrelas
numa galáxia não se afastam umas das outras. Os seus movimentos são determinados
pelas interacções locais: os planetas movem-se em torno da sua estrela, as estrelas
rodam em torno do centro da galáxia, e a expansão não tem qualquer papel.
Uma outra implicação de um Universo homogéneo é que, além de não ter limites,
também não pode ter centro. Todos os pontos são "centros", no sentido em que todos
os pontos se afastam de todos os outros. Aqui mais uma vez a analogia do balão a
encher ajuda a criar uma imagem.

Será possível observar o Big Bang?


O Universo primitivo era muito denso, de alguma forma análogo ao interior de uma
estrela. Qualquer radiação que emitida nessa altura era imediatamente absorvida pelo
meio e reemitida instantes mais tarde e novamente absorvida e assim sucessivamente.
Só a partir do momento em que a densidade do Universo se tornou suficientemente
baixa (a densidade diminuía continuamente devido à expansão) é que foi possível a
radiação propagar-se livremente. Esta primeira radiação livre tem o nome de Radiação
Cósmica de Fundo (CMB) e é a radiação mais antiga que pode chegar a qualquer
telescópio, por mais potente que este seja. Portanto não é possível chegar a olhar para
o próprio Big Bang, do mesmo modo que não é possível olhar para o interior de uma
estrela. Toda a radiação que recebemos do Sol vem da sua superfície.
O Big Bang não é como uma explosão habitual em que matéria é expelida a partir de
um ponto. Não existe um ponto único que seria o centro do Universo. Até porque
sendo infinito não tem um centro definido. O Big Bang é o mecanismo que num
instante cria matéria em todo o espaço que pode até ser infinito, que começa então a
entrar em expansão.

18/87
Galáxias e seus constituintes
Uma galáxia é de facto um sistema formados não só por estrelas, mas também por gás
e poeira. Existe ainda outro constituinte que é dominante - a matéria escura.
Actualmente sabe-se que, por exemplo, no caso da nossa galáxia (Via Láctea), toda a
matéria contida nas estrelas, gás e poeira corresponde apenas a aproximadamente
10% da sua massa total. Desta forma, acredita-se que a maioria da massa da galáxia
poderá ser atribuída a alguma forma de matéria ainda por identificar - matéria escura -
e que não interage com a radiação eletromagnética, não absorvendo nem emitindo
qualquer tipo de luz. Com isto apenas conseguimos inferir a sua presença através da
sua influência gravitacional no sistema.
Em relação à matéria escura, a questão principal é que as galáxias e os outros objectos
astrofísicos formam-se pelo colapso gravitacional de nuvens de matéria primordial
existente no Universo. Esse processo de formação é muito lento e é dificultado pela
expansão, e pela rotação, pressão e radiação existentes na nuvem. As galáxias que
observamos actualmente não teriam tempo de se formar no tempo de vida actual do
Universo se as forças (centrífugas, pressão, etc.) que contrariam o colapso
gravitacional fossem muito elevadas. Por essa razão pensa-se que essas nuvens
primordiais de matéria são constituídas não só pelas partículas conhecidas, mas
também por algum tipo de matéria que não produza pressão nem radiação - a matéria
escura. Assim a nuvem de matéria escura vai colapsando de forma muito eficaz,
arrastando consigo a matéria normal. Esta sofre interacções produzindo radiação que
tenta contrariar o colapso, mas não é suficiente para suster a queda no "poço" criado
pela matéria escura. Quando a matéria normal está suficientemente concentrada,
produz reacções de fusão criando-se assim estrelas e a própria galáxia.
No entanto ainda não se conhece concretamente qual a essência desta matéria escura,
ao contrário da matéria normal, que se sabe que é formada por protões, neutrões e
electrões que se juntam em certas combinações formando átomos e moléculas.
Existem duas formas de matéria escura, bariónica e não bariónica. Na primeira
assume-se que a matéria escura é formada por matéria "comum" como é o caso dos
protões e neutrões (bariões). Um exemplo de matéria escura bariónica poderia ser
objectos frios, que são difíceis de detectar com a tecnologia actual. Contudo acredita-
se que a maioria da matéria escura é não bariónica, e desta sabemos muito pouco.

19/87
Existem 4 tipos dominantes de galáxias - elípticas, esferóides, espirais e irregulares. De
forma a determinar qual o tipo de uma galáxia, são tidas em conta várias
características, tais como: regularidade e simetria, presença/ausência de um disco e
braços espirais e ainda o perfil de luminosidade, ou seja, a distribuição da intensidade
da luz ao longo da galáxia.
Tendo em conta a análise destas características, as galáxias estão distribuídas em
quatro classes principais: elípticas, esferóides, espirais e irregulares. As galáxias
elípticas são caracterizadas por uma estrutura aparente elíptica e uma distribuição de
luz que se encontra bastante concentrada no seu centro, decrescendo muito com a
distância a este. As galáxias esferóides possuem um disco (sem braços espirais) e bojo
(distribuição esferóide de estrelas em torno do centro das galáxias). No entanto, a
dimensão do bojo é em geral muito superior à do disco, fazendo com que esta assuma
uma forma esferóide. As galáxias espirais são caracterizadas pelos seus discos, que
apresentam braços espirais, e uma distribuição de luz muito menos concentrada no
centro, relativamente às galáxias elípticas. Estas podem ou não possuir um bojo, que
será de qualquer das formas de dimensão muito inferior ao das esferóides.
Finalmente, as galáxias irregulares, como o próprio nome indica, apresentam poucos
indícios de regularidade ou simetria.
As quantidades dos próprios constituintes mudam consoante o tipo de galáxia. Em
termos de conteúdo em poeira e gás, as galáxias elípticas e esferóides possuem muito
pouca (ou mesmo nenhuma, no caso das elípticas), enquanto as galáxias espirais e
irregulares possuem quantidades avultadas (entre 5 e 25% da sua massa total).
Actualmente, pensa-se que a maioria das galáxias possui um buraco negro
supermassivo no seu centro, sejam elas espirais, elípticas ou esferóides. Medições da
distribuição de velocidades de matéria perto do centro das galáxias mostram que, esta
se desloca com velocidades muito elevadas. Utilizando a terceira lei de Keppler,
conclui-se facilmente que, para o caso da nossa galáxia, uma massa de
aproximadamente 2 milhões de massas solares estará contida no interior de um
espaço com apenas algumas unidades astronómicas de extensão (1 UA = distância
média Terra-Sol). Tal massa contida em tal volume diminuto implica a existência de um
objecto extremamente compacto que se acredita ser um buraco negro supermassivo.
Outros estudos mostram também que existe uma forte correlação entre a massa do
bojo de uma galáxia - estrutura formada por um distribuição esferóide de estrelas em

20/87
torno do centro de algumas galáxias - e a massa do buraco negro central. Isto é uma
indicação de que a própria formação e evolução das galáxias poderá estar relacionada
com os seus buracos negros supermassivos.

Buracos negros
Os buracos negros são dos objectos astrofísicos que mais curiosidade suscitam. A
definição básica é que são objectos que produzem um campo gravítico tão forte que a
velocidade de escape é maior do que a velocidade da luz. Ou seja, um feixe de luz
emitido verticalmente a partir de um buraco negro acabaria por tornar a cair, tal como
uma pedra lançada verticalmente da Terra.
O campo gravítico (em mecânica Newtoniana) criado por uma massa M num ponto r
depende de M/r, Portanto quanto maior for a massa e menor a distância, maior será o
campo gravítico, e maior a possibilidade de se formar um buraco negro. Um corpo que
se aproxime a uma distância r=2.M.G/c² de um buraco negro atinge um ponto de não
retorno. Este raio chama-se horizonte. Note-se que a massa do buraco negro será até
menor do que a da estrela que lhe deu origem, pois há sempre perdas durante o
colapso. Nesta fórmula simplificada, G é a constante de gravitação de Newton
G=0.0000000000667 m³/Kg/s², c é a velocidade da luz c=299792458 m/s. Com esta
fórmula prática pode-se calcular rapidamente qual o ponto de não retorno para
qualquer objecto. Por exemplo para a massa do Sol
M=1990000000000000000000000000000 Kg (são 30 algarismos a seguir ao 1, ou seja,
1.99 vezes 10 elevado a 30). Obtém-se r=2.9 Km. Isto quer dizer que se a massa do Sol
estivesse toda concentrada numa esfera de raio menor do que 2.9 Km, o Sol
transformar-se-ia num buraco negro. Nesse caso, se um viajante se aproximasse a uma
distância de 2.9 Km do centro do 'Buraco Negro Sol' não conseguiria afastar-se. A
existência do horizonte, ou por outras palavras, o facto da massa estar contida num
volume de raio menor do que 2GM/c² é que faz com que esse objecto colapsado seja
um buraco negro. O buraco negro cresce devido a esta massa extra que recebeu (r é
proporcional à massa M) e o seu alcance aumenta, podendo mais facilmente atrair
objectos mais distantes do que anteriormente. No entanto, esses podem sempre
segurar-se graças à atracção local sobre os seus vizinhos, rotação, etc. Se conseguisse
ir aumentando sempre a sua massa poderia realmente absorver toda uma galáxia.

21/87
Um corpo que se aproxime demasiado de um buraco negro, além de não poder
regressar, é destruído. Isto porque a força gravítica iria aumentando há medida que o
corpo se aproximaria do centro do buraco negro. Imaginemos uma pessoa a cair com
os pés para baixo, a força gravítica que actua nos pés é maior do que a que actua na
cabeça (isto acontece também na Terra, mas a diferença é mínima). Num buraco negro
essa diferença tornar-se-ia cada vez maior e a pessoa seria cada vez mais alongada.
Esta força diferencial chama-se força de maré e é o mesmo efeito que provoca as
marés nos mares da Terra.

Vida e morte das estrelas


A vida e morte de uma estrela, é determinada pela sua massa. A fonte de energia de
uma estrela provém das reacções termonucleares que ocorrem no seu interior, onde
hidrogénio é convertido em hélio. Quando o hidrogénio no núcleo se esgota, a
temperatura não é suficiente para se iniciar a fusão nuclear do hélio e desta forma as
reacções decrescem. Isto faz com que a pressão do gás diminua e deixe de ser
suficiente para compensar a pressão gravítica exercida pelas camadas exteriores da
estrela, fazendo com que estas comecem a colapsar. Este colapso dá origem a um
aumento da pressão no núcleo, e consequentemente ao aumento da temperatura até
a um ponto em que é possível iniciar-se a conversão do hélio em carbono. Todo este
processo repete-se também para camadas adjacentes ao núcleo, fazendo com que
cada vez mais carbono se acumule no centro da estrela.
No caso de estrelas com massas compreendidas sensivelmente entre as 0.8-3.0 massas
solares, as temperaturas nunca atingem valores suficientemente elevados para que
ocorra a fusão do carbono, sendo que o ciclo termina após a exaustão da fusão do
hélio no núcleo.
Durante estes ciclos, nomeadamente naqueles em que ocorrem reacções nas camadas
adjacentes, são originados pulsos térmicos que fazem com que as camadas exteriores
da estrela sejam ejectadas de uma forma suave para o espaço e que continuam a ser
propulsionadas pela pressão de radiação proveniente do núcleo quente, agora
composto por carbono. Este, eventualmente fica exposto, e devido à sua temperatura
remanescente emite radiação ultravioleta suficientemente intensa para ionizar os
gases ejectados, fazendo assim com que estes brilhem e dêem origem àquilo que
designamos por Nebulosa Planetária.

22/87
É necessário notar, no entanto, que as nebulosas planetárias nada têm a ver com
planetas. Este termo foi introduzido no século XVIII quando estes objectos foram
observados pela primeira vez através de telescópios pequenos. A pouca resolução
desses instrumentos fez com que os observadores encontrassem semelhanças entre
estes objectos e planetas distantes, daí o seu nome.
As nebulosas planetárias são também estruturas diferentes das regiões onde ocorre a
formação de estrelas. As estrelas são formadas no interior de nuvens frias, escuras e
de grandes dimensões, formadas por gás e poeira e designadas por Nuvens
Moleculares. Estrelas jovens e de grande massa formadas no interior destas nuvens,
libertam grandes quantidades de energia na forma de radiação UV que ioniza o gás da
nuvem em torno delas fazendo-o brilhar. A nuvem torna-se então aquilo que chama de
Nebulosa de Emissão, e que está intimamente associada a uma zona de formação
estelar. Na realidade, tanto as nebulosas escuras como as nebulosas de emissão,
recebem o nome colectivo de Nebulosas, estando este termo associado a zonas de
formação estelar, enquanto o termo de nebulosa planetária está unicamente
associado à estrutura formada na fase final da vida de uma estrela de massa
compreendida entre 0.8-3 massas solares.
Existem dois processos distintos que dão origem a supernovas.
O núcleo de carbono remanescente de uma outrora estrela de massa compreendida
entre as 0.8 e 3 massas solares, é designado por Estrela Anã Branca. Na realidade, e
por aquilo que se compreende hoje em dia, todas as estrelas com massa inferior a 8
massas solares têm um final de vida semelhante ao que foi descrito anteriormente. No
entanto, estrelas com massas superiores a 8 massas solares, não têm um final de vida
tão pacífico como as suas companheiras menos massivas, não passando por isso por
uma fase de nebulosa planetária. Estas estrelas massivas morrem num cataclismo
violento no qual o seu núcleo colapsa e a maioria da sua matéria é ejectada para o
espaço a velocidades elevadas. Nesta explosão, a luminosidade da estrela aumenta
subitamente por um factor de 108 vezes, produzindo o que designamos de Supernova.
Embora as Supernovas resultem da morte de estrelas de grande massa, elas podem ter
uma outra origem, neste caso a explosão de uma anã branca. Quando a anã branca se
encontra num sistema binário, nomeadamente juntamente com uma estrela gigante
vermelha, ela pode "capturar" gás das camadas mais exteriores da sua companheira
acumulando-o na sua superfície. Quando a massa total da anã branca atinge um certo

23/87
limite, a pressão no seu interior aumenta devido à matéria agregada Este aumento de
pressão faz com que a temperatura no interior da anã aumente também, a tal ponto
que se torna possível o início de reacções termonucleares com o carbono como
combustível. Numa estrela normal, haveria um equilíbrio entre pressão e temperatura,
sendo que o aumento de temperatura no interior levaria a um aumento de pressão e a
estrela expandiria, fazendo assim com que a temperatura diminuísse e
consequentemente a taxa de reacções nucleares. Contudo, isto não acontece numa
anã branca. A anã branca não expande com o aumento da temperatura no seu interior
devido às reacções nucleares que ali decorrem. Desta forma não existe uma válvula de
segurança para equilibrar temperatura e pressão, fazendo assim com que o aumento
da temperatura aumente de forma catastrófica a taxa de reacções no seu interior até
um ponto em que a anã branca explode, dispersando toda a sua massa para o espaço.
Quando as supernovas têm origem na morte de estrelas de grande massa são
designadas por Supernovas Tipo II e quando são originadas na explosão de uma anã
branca num sistema binário designam-se por Supernovas Tipo Ia. Existem no entanto
outros dois tipos, Ib e Ic, que têm origem também na morte de estrelas de grande
massa mas cujas estrelas perderam uma parte substancial das suas camadas exteriores
antes de explodirem.

24/87
Novembro 2011 Alterações climáticas e destruição da camada de ozono
Ana Rita Antunes e Francisco Ferreira, Quercus

Gases com efeito de estufa


Os gases de efeito de estufa (permanentes, porque por exemplo o vapor de água é
também um gás com efeito de estufa mas que tem fortes oscilações diárias e num ciclo
de muito curto prazo), considerados no Protocolo de Quioto são; CO2, CH4, N2O, HFCs,
PFCs e SF6. Há ainda gases com efeito de estufa que não estão no Protocolo de Quioto
e que já foram praticamente proibidos porque também danificavam a camada de
ozono (os CFCs). Atenção que são problemas diferentes! Trata-se de gases que
conseguem absorver o calor (radiação infravermelha) e que durante o seu tempo de
vida (um tempo médio de 100 anos na troposfera) representam um determinado total
de capacidade de retenção de energia térmica. Como é muito complicado falarmos de
cada um dos gases individualmente, definiu-se um potencial de aquecimento global
(PAG) que compara cada um dos gases em relação ao que tem menor potencial (mas
que existe em maior quantidade), o CO2. Assim o PAG do metano é 21, do N2O 310 e
nos gases fluorados pode atingir vários milhares. Isto é, uma molécula de um gás
fluorado pode reter tanto calor como milhares de moléculas de CO2. Em termos
percentuais os gases fluorados representam uma percentagem muito mais baixa das
emissões globais de gases com efeito de estufa.

Cimeira de Durban 2011


Os combustíveis fósseis tendem a ser cada vez mais escassos e fala-se de um pico de
exploração de petróleo até 2020, sendo que a partir daí o preço do petróleo irá subir.
Portanto, por um lado ou por outro, a nossa economia terá de ser "descarbonizada". O
que tentamos é antecipar esta descarbonização para que a humanidade não sofra as
consequências mais drásticas das alterações climáticas.
Os EUA estão muito atrás da Europa na sensibilização e políticas de combate às
alterações climáticas. O acordo global foi adiado no tempo por pressão dos EUA. E
agora temos um acordo que nos deixa fora da trajectória de um aquecimento máximo
de 2ºC, para uma trajectória de aquecimento global de 3,5ºC.
Há dois "tratados" a serem discutidos em paralelo: 1) um tratado global com todos os
países; 2) um segundo período do Protocolo de Quioto, enquanto o tratado global não

25/87
entra em vigor. O que as ONGA (organizações não governamentais de ambiente)
queriam é que o tratado internacional entrasse em vigor em 2015. O que saiu de
Durban foi um tratado internacional a partir de 2020. Até lá só os países que estiverem
no Protocolo de Quioto é que têm metas a cumprir. E o que os dados dos últimos anos
nos mostram é que se não houver políticas activas de redução das emissões, não é
possível inverter a tendência de aumento de emissões. Se não invertermos a
tendência, não conseguimos ficar abaixo do aumento global de 2ºC.

Causas naturais e causas antropogénicas


O Painel Intergovernamental para as Alterações Climáticas (IPCC, em inglês), reúne
mais de três mil cientistas de todo o mundo que analisam a evolução da temperatura e
humidade do planeta e, com base em modelos, constroem cenários de previsão da
temperatura futura do planeta. Em 2007 publicaram o mais recente relatório
integrado à escala mundial sobre o problema. Uma das áreas abrangidas foi
precisamente saber se as causas das alterações do clima estavam ou não relacionadas
com mudanças naturais. Os cientistas identificaram que a actividade solar tem
aumentado gradualmente desde a era industrial, causando uma pequeno aumento
daquilo que se designa por forçamento radiactivo1. Para além das mudanças cíclicas na
radiação solar que seguem um ciclo de 11 anos. A energia solar aquece directamente o
sistema climático e pode também afectar a abundância na atmosfera de alguns gases
de efeito estufa, como o ozono estratosférico. Por outro lado, a emissão de compostos
por parte dos vulcões pode, num período após as erupções (2 a 3 anos) ter um efeito
contrário, isto é, reduzir o designado forçamento radiativo. Ponderando estas duas
questões, conclui-se que as actividades humanas têm uma importância muito maior.
O problema da desflorestação é muito mais grave por deixarmos de reter dióxido de
carbono da atmosfera e assim ser mais uma contribuição para o seu aumento; porém,
em termos de forçamento radiativo, a substituição da floresta ou de alguma outra
ocupação do solo pode levar a uma menor transformação da radiação solar em
infravermelha quando a mesma atinge o solo e assim levar a um forçamento negativo.
Também os aerossóis na troposfera (em parte devido à poluição causada pelo homem,
ou por fenómenos naturais como as erupções vulcânicas), absorvem radiação solar a

1
Balanço entre a radiação solar que nos atinge e a sua reflexão e transformação em radiação
infravermelha (calor); se o valor líquido for positivo, a troposfera, a camada da atmosfera até
aproximadamente os 12 km de altitude, aquece; caso contrário arrefece

26/87
uma altitude maior, que de outra forma seria reflectida à superfície e depois
armazenada pelos diferentes gases na troposfera.
Se este aquecimento global não é apenas provocado por fenómenos naturais (como
intensidade da radiação e actividade vulcânica), então a Terra também não terá meios
de auto-regulação eficazes, pelo menos no espaço de tempo necessário para que os
efeitos catastróficos das alterações climáticas não se façam sentir na sua população.
O IPCC afirma que é muito difícil avaliar até que ponto as actividades humanas fazem
aumentar o número ou intensidade de eventos climáticos extremos (ondas de calor,
chuvas tropicais, furacões, etc.) pois estes fenómenos ocorrem por associação de
vários factores. No entanto, os cientistas fizeram correr um modelo onde apenas
entravam com os factores naturais nas variações históricas do clima. Em seguida
fizeram correr o mesmo modelo, mas incluindo, as actividades humanas. Como
resultado perceberam que a influência humana mais que duplicava o risco de ondas de
calor na Europa, ao longo do século XX. A mesma abordagem baseada na
probabilidade das actividades humanas ter influência nos eventos climáticos, foi usada
para examinar a frequência das chuvas intensa ou inundações. Neste caso, os modelos
climáticos prevêem que a influência humana irá causar um aumento em vários tipos de
fenómenos meteorológicos extremos, incluindo as chuvas intensas.

27/87
1 a 19 Janeiro 2012 Física das Partículas
Pedro Abreu, LIP

Bosão de Higgs e campo de Higgs


o Bosão de Higgs, é uma partícula associada ao campo de Higgs que preenche o
espaço(-tempo) para "atrasar" as partículas, isto é, dar massa às partículas interagindo
com elas.
O nosso modelo das partículas, que permite fazer cálculos muito rigorosos verificados
experimentalmente, é para partículas que ganham massa quando interagem com o
campo de Higgs. Se quiséssemos eliminar o campo de Higgs, teríamos que ter outro
mecanismo para introduzir as massas das partículas no nosso modelo (e a introdução
de certos termos de massa torna as contas estapafúrdias - como resultados infinitos e
outras coisas horríveis). Temos um modelo que, a altas energias (por ex., nos
aceleradores), tem simetrias muito elegantes - como por exemplo a interação fraca (da
radioactividade) e a interação eletromagnética serem dois aspectos da mesma coisa
(interação electrofraca) - mas que a energias baixas (no nosso dia-a-dia) a simetria foi
quebrada (e as interacções ficam muito diferentes, por exemplo em alcance). O Prof.
Peter Higgs, juntamente com outros, propôs um mecanismo muito elegante para esta
quebra natural de simetria neste tipo de modelos, e introduziu o campo de Higgs.
Como a cada campo está associada uma partícula (ao campo electromagnético está
associado o fotão), devemos também poder ter um Bosão de Higgs associado ao
campo de Higgs.
Em concreto o campo de Higgs é um campo (como o campo electromagnético) que
preenche o espaço e com o qual as partículas interagem adquirindo massa (isto é, têm
massa que têm devido à interação com este campo). Gera-se no sentido em que a
Natureza, no seu estado de energia mais baixo, tem um campo de Higgs que não se
anula totalmente no vácuo. A parte que não se anula quebra a simetria electrofraca
existente na Natureza, deixando duas interacções muito distintas: a interação fraca de
alcance muito curto (restringida ao tamanho típico das partículas), e a interação
eletromagnética de alcance infinito (num tempo infinito).
O mecanismo de Higgs não constitui o modelo unificador, mas poderá ser parte
integrante de um tal modelo. Da mesma forma que a interação eletromagnética e a
interação fraca são unificadas na interação electrofraca para energias elevadas (como

28/87
por exemplo as atingidas no LHC no CERN ou em raios cósmicos de energias elevadas),
também há modelos que unificariam as outras interacções com a interação
electrofraca (as Teorias de Grande Unificação unificam a interação electrofraca com a
interação forte, enquanto que as "Teorias de Tudo" - das quais um exemplo são os
modelos das Teorias das Supercordas (Teoria M [M de Membrana]) unificariam as
interacções electrofraca e forte com a interação gravítica). Mas as energias a que se
darão (dariam) estas unificações são tão elevadas que ainda não foi possível atingi-las
nos aceleradores feitos pelo Homem ou no Universo (raios cósmicos de energias
extremas).

Violação de CP e disparidade entre a matéria conhecida e antimatéria conhecida


A violação de CP é a quebra de uma simetria combinada que existe em quase todos os
processos na Natureza, mas que é quebrada em alguns processos muito raros. A
simetria combinada CP é o resultado da aplicação sucessiva da simetria P (Paridade) e
da simetria C (Conjugação de Carga) a um processo que queiramos descrever.
As partículas (e antipartículas) são descritas no nosso modelo das partículas
elementares por funções de onda complicadas, que têm o nome de campos porque
são funções da posição no espaço (além de funções de tempo). As antipartículas têm
exactamente as mesmas propriedades das partículas correspondentes, excepto a carga
eléctrica (de facto trata-se aqui da propriedade Conjugação de Carga, que é a carga
eléctrica para partículas carregadas, mas que é outro número para partículas neutras
como, por ex., o neutrão ou o neutrino). Assim, a massa do electrão é exactamente a
mesma da massa do prositrão (anti-electrão), e estão sujeitos à mesma gravidade.
Num processo natural que queiramos descrever, começamos por identificar as
partículas que temos antes do processo ocorrer (e suas propriedades), e as partículas
que temos depois do processo ter ocorrido (e as suas propriedades). Se fizermos bem
as contas, a nossa descrição do processo deve poder explicar as alterações ocorridas
no processo e dar-nos a probabilidade de isso acontecer realmente na Natureza.
Aplicar a operação Paridade corresponde a trocar o sentido de todos os eixos de
espaço (trocar de sinal o vector posição, por exemplo, para todos os campos
envolvidos no processo). Isso implica, por exemplo, que se uma partícula está a viajar
em direcção a ti, depois da operação Paridade essa partícula estaria a fugir de ti.

29/87
Aplicar a operação Conjugação de Carga corresponde a trocar a partícula pela
antipartícula. Se se aproxima um electrão de ti, depois da operação Conjugação de
Carga estaria um positrão a aproximar-se de ti.
Ora, para a maior parte das interacções, um positrão que se aproxima de um ponto
onde vai interagir é como um electrão que se afasta desse ponto após ter interagido
(na mesma direcção de onde vinha o positrão). Mas para a interação fraca, há uma
pequeníssima diferença que faz com que isto, para certas partículas, não seja
inteiramente verdade. No tempo de voo de uma destas partículas (electricamente
neutra) ela pode-se transformar na sua antipartícula (também electricamente neutra),
e a probabilidade disso ocorrer não é exactamente igual à probabilidade da
antipartícula se transformar na partícula. O que faz nascer uma pequena assimetria na
produção de matéria e antimatéria. Mas esta assimetria é muitíssimo inferior à que
seria necessária para explicar a enorme assimetria matéria-antimatéria no nosso
Universo. Assim, na realidade, ainda não conheço uma boa explicação para a
disparidade entre a matéria conhecida e a antimatéria conhecida no nosso Universo.
A antimatéria pode coexistir com a matéria, desde que não se encontrem. Se se
encontrar a partícula com a sua antipartícula aniquila-se em "luz"! O CERN tem um
laboratório onde têm conseguido criar e manter átomos de anti-hidrogénio, para
estudos detalhados comparativos entre o hidrogénio e o anti-hidrogénio, tendo já
alcançado um recorde de 1000 segundos para uma centena de átomos. Claro que os
átomos de anti-hidrogénio têm de estar confinados por campos magnéticos, porque
quando atingem as paredes dos detectores ou o gás remanescente nas cavidades de
confinamento, aniquilam-se!
Dificilmente a antimatéria poderá ser usada como combustível pois, Mesmo que
pudéssemos aproveitar a energia da aniquilação de partículas com antipartículas,
ainda teríamos que produzir as antipartículas, e era aqui que hoje teríamos que gastar
muito mais energia que aquela que obteríamos!
é totalmente impossível virar a carga eléctrica não nula, isto é ter uma partícula
electricamente carregada que, espontaneamente e sem qualquer interação com outra,
troca o sinal da carga eléctrica. Mas certas partículas neutras mudam para a sua
antipartícula espontaneamente no seu percurso. Este fenómeno é bem conhecido para
algumas partículas compostas por um quark e um antiquark (mesões), e é o que está
por trás da questão "Violação de CP" já discutida neste fórum. Ainda não observámos

30/87
isto para partículas elementares (o fotão é a sua própria antipartícula, portanto não
conta). Mas Ettore Majorana propôs nos anos 30 do séc.XX que o neutrino poderia ser
um tipo de partícula que se transformaria na sua antipartícula, e há experiências que
estão a procurar sinais experimentais dos efeitos desta hipótese (experiências de
procura de decaimentos beta duplos sem neutrinos - "neutrinoless double beta decay
experiments"). Agora para a produção de energia há toda uma série de outros
problemas que torna totalmente inviável a utilização prática das possíveis aniquilações
matéria-antimatéria.

Imanes explicados à luz da Física de Partículas


A ideia já vem de Ampére (André Marie A., França, 1775-1836), não necessariamente
da Física de Partículas. Sabemos hoje que a matéria é feita de átomos, e que estes são
constituídos por um núcleo com toda a carga eléctrica positiva, rodeados por electrões
que estão em órbita à sua volta. É como se tivéssemos pequenas correntes eléctricas à
volta do núcleo. Ora, uma corrente eléctrica numa espira condutora (fio condutor
circular), provoca um campo magnético perpendicular ao plano da espira. Podemos
assim imaginar que, embora os possíveis campos magnéticos criados pelas várias
correntes num átomo se possam anular mutuamente, podem sobrar algumas desses
campos magnéticos e para um átomo existir um campo magnético não nulo. Na maior
parte dos materiais, devido à agitação térmica, esses campos magnéticos estão
orientados aleatoriamente e a soma vectorial é nula. Mas há certos materiais em que
todos esses campos magnéticos se somam, criando um campo magnético elevado, que
pode ser sentido no exterior: é o íman permanente.

Teoria das cordas…


A teoria das cordas tem por base o conceito de que as partículas elementares são
diferentes modos de vibração de uma cordinha enrolada. Mas esta teoria precisa de
várias outras dimensões para funcionar bem. De facto, apesar dos conceitos serem
muito elegantes e os resultados matemáticos serem importantes, sob certas condições
muito favoráveis consegue-se reduzir o número mínimo de dimensões necessário para
a teoria ter resultados finitos para 9 dimensões de espaço e uma de tempo.
Comprimento, largura, altura, todos conhecem. Mas onde estão as 6 dimensões
extra?! Compactadas e invisíveis aos melhores instrumentos de pesquisa? Isto é o que

31/87
prevê a teoria: o diâmetro das cordinhas, que revelaria essa dimensão extra, teria de
ser da ordem de 0,00000 000000 000000 000000 000000 00001 m, e nós com o LHC só
somos sensíveis a objectos com o tamanho mínimo de ~0,00000 000000 000000 01.
Ainda nos faltam 0,00000 000000 001 m (o tamanho do protão face a nós, por
exemplo) para lá chegar. Infelizmente, a teoria das cordas (das supercordas ou teoria-
M) ainda tem que fazer previsões que possam ser verificadas experimentalmente, para
sair do idealismo matemático.

Electrões e protões, porque é que não se aniquilam?


razão porque os electrões não se aniquilam com os protões é que uma partícula só se
pode aniquilar com a sua antipartícula ou com a antipartícula da partícula do seu par.
Assim o electrão não se pode aniquilar com o protão (a partícula par do electrão é o
neutrino do electrão).
Mais informação: Para a interação forte, eletromagnética e parte da interação fraca, as
partículas só se podem aniquilar com as suas antipartículas, através dessa interação
(quando dizemos vulgarmente que uma partícula se aniquila com a sua antipartícula
dando luz, estamos a referir-nos à aniquilação através da interação eletromagnética -
todas as partículas com carga eléctrica sentem esta interação; mas esse processo
também pode ser através da interação forte [só para quarks e gluões], ou através da
interação fraca neutra [todas as partículas]). Mas para a interação fraca carregada, as
partículas estão agrupadas em pares [dubletos], e a aniquilação dá-se entre uma
partícula e a antipartícula da outra partícula do par. Por ex., um electrão aniquila-se
com um positrão (anti-electrão) através da interação eletromagnética dando luz ou da
interação fraca neutra, um quark u aniquila-se com um anti-quark anti-u através da
interação eletromagnética dando luz ou através da interação fraca neutra ou através
da interação forte; finalmente, um electrão pode-se aniquilar com um anti-neutrino do
electrão, através da interação fraca carregada (depois aparecem outras partículas,
uma das quais carregada electricamente, por causa da conservação da carga eléctrica).

Universos múltiplos?...
A Física - e sobretudo a Física actual - só procura considerar as perguntas para as quais
pode, em princípio, obter uma resposta. É impossível, neste momento e cada vez mais
difícil no futuro, receber informação de um universo fora do nosso pois, devido à

32/87
expansão deste nosso universo, a luz teria que viajar (ter viajado) uma distância muito
maior que o produto da sua velocidade no vazio pela idade do nosso Universo.
Assim, não faço a mínima ideia relativa à existência de múltiplos universos. E sei que
não tenho maneira de saber. Agora há vários cientistas que propõem múltiplos
universos (modelos de multiverso), para "explicar" porque é que o nosso Universo é
tão bom para a Vida (e Humana!). Entre muitos livros interessantes, recomendo "O
Jackpot Cósmico" de Paul Davies (editado pela Gradiva), em que a certa altura o autor
faz uma discussão engraçada dos multiversos e possíveis consequências. Claro que, a
existirem outros Universos, poderia provavelmente terem outras leis físicas e outros
conjuntos de partículas, certamente (e, muito mais provavelmente, não terem Vida
Inteligente).

33/87
1 a 24 Fevereiro 2012 Refinação do petróleo
José Inverno, GalpEnergia

Características dos petróleos


Não há petróleos de boa qualidade e petróleos de má qualidade.
A caracterização de um petróleo depende dos produtos que lhe deram origem e da
zona do globo de onde vem.
Basicamente, uma das principais características que define um petróleo bruto é a sua
densidade (medida através do chamado ºAPI). Basicamente os petróleos dividem-se
em petróleos pesados (heavy) e leves (light). Os pesados como o seu nome indica são
mais ricos em hidrocarbonetos de cadeia mais longa e os leves em hidrocarbonetos de
cadeias mais pequenas.
Os petróleos brutos dividem-se ainda em petróleos sour (com muito enxofre) e sweet
(com pouco enxofre).
Os petróleos com pouco enxofre tendem a ser mais caros pois exigem um processo de
tratamento menos complexo para lhe remover o enxofre.
Os petróleos "árabes" podem querer dizer muita coisa pois podem ir desde os
petróleos do Norte de África (por ex da Libia) que são light e sweet até petróleos do
Iraque e Irão que podem ser heavy e sour.
Cada país compra para as suas refinarias petróleos de diversas origens conforme o
perfil de produtos que quer obter e isso dependo de cada mercado de produtos finais
e da maior ou menor complexidade das refinarias onde vão ser tratados
Quando há um derrame numa praia, a não ser que se conheça qual o navio que
efectuou o derrame, é muito difícil determinar a origem pois há centenas de crudes.
Quando há um derrame no mar as fracção mais leves evaporam ficando as mais
pesadas que dão à costa sendo muito difícil só pela caracterização desta fracções
identificar a origem. Cada crude tem determinadas propriedades que o caracterizam
nas suas várias fracções (fracção de destilação, densidades, metais pesados,
viscosidades, aromaticidade, parafinicidade, Enxofre, etc., etc...). É o assay do crude.
Na wikipedia procurando por "crude oil assay" encontra-se uma serie de links seja para
documentos do departamento de energia dos EUA que mostram quais as propriedades
que são determinadas para caracterizar os crudes. Recomendo especial o link da BP

34/87
onde terá acesso aos assays dos crudes desta empresas e à sua origem geográfica. No
site da BP na primeira pagina de www.bp.com terá ainda acesso a um documento
muito bom sobre produção e consumo a nível mundial que é o "Statistical Review of
Worls Energy 2011" que é uma sumula muito bem feita sobre energia a nível mundial e
que é de publico acesso neste site.
Os crudes são pois misturas muito complexas de hidrocarbonetos com muitas
propriedades e em que muitas vezes as próprias propriedades reais não
correspondem aos assays publicados e a que as empresas têm acesso par planear as
suas operações e assim definir quais os crudes a adquirir para obter determinada gama
de produtos finais no aparelho refinador que possuem de acordo com as necessidades
do mercado em produtos finais em cada momento.
O tipo de crude processado influência os produtos a obter. Há crudes melhores para
obter gasolinas, outros serão melhores para obter fuelóleo ou asfalto. O que as
refinarias processam é uma mistura de crudes de várias origens e com diferentes
propriedades de forma a obterem o perfil de produtos de que o mercado necessita em
cada momento.

Refinação do petróleo
Uma refinaria é uma fábrica em que o petróleo bruto é transformado através de
processos físicos e químicos nos produtos finais (combustível e outros produtos).
Uma refinaria simples praticamente só tem fraccionamento por destilação e
dessulfurações.
Uma refinaria complexa terá cracking catalítico (para produzir gasolinas), hydrocraker
(para produzir gasóleos) e outros processos que provocam grandes alterações nas
moléculas de hidrocarbonetos como isomerizações, alquilações, etc.
Nas refinarias usam-se processos físicos e químicos.
Consideramos que os processos químicos são aqueles em que existem alterações das
estruturas moleculares dos hidrocarbonetos. Normalmente estes processos exigem
determinadas condições de pressão e temperatura bem como a existência de
catalisadores adequados e também a presença ou não de H2. Como exemplos temos o
processo de cracking térmico de visbreaking, para diminuir a viscosidade do fuel;
Produção de H2; Craking catalítico (craqueamento de moléculas longas noutras mais

35/87
pequenas na presença de catalisador adequados a pressões relativamente baixas para
produção de gasolinas e gases de petróleo liquefeito (C3 e C4)); dessulfurações
(remoção dos compostos de enxofre dos vários componentes na presença de
catalisadores, H2, pressão e temperatura); Hydrocracking (craqueamento de moléculas
pesadas na presença de H2 e pressões e temperaturas elevadas para produção de
diesel); Merox (remoção de mercaptanos que dão maus cheiros e corrosão aos
combustíveis); Claus (transformação de H2S em S elementar); isomerização (rearranjos
moleculares para obter produtos finais ou intermédios); alquilação (aglomeração de
duas cadeias de hidrocarbonetos noutra maior); Reforming (ciclização e aromatização
de hidrocarbonetos com produção de H2).
Os processos físicos são aqueles em que se usam as propriedades físicas dos vários
componentes para os separar: destilação (em que a separação dos produtos é
efectuada devido aos diferentes pontos de ebulição dos vários componentes sejam
eles puros ou misturas com determinados intervalos de destilação), decantação
(separação por diferenças de densidade -normalmente uma fase aquosa mais densa e
uma orgânica menos densa- que poderá ser uma simples separação gravítica ou com a
ajuda de campos eléctricos para favorecer a separação), extracção líquido-líquido
(lavagem de um produto com outro para transferir um determinado componente de
um para o outro) e extracção gás-líquido (passagem de um gás através de um liquido
para promover a passagem de um componente da fase gasosa para liquida), etc...
Como processos físicos auxiliares usa-se ainda a bombagem (uso de bombas para fazer
circular produtos líquidos), e a compressão (uso de compressores e ventiladores para
fazer movimentar gases e elevá-los à pressão necessária para os vários processos).
Alguns processos trabalham a pressões menores que atmosférica (nesse caso usam-se
ejectores de vácuo). Para levar as temperaturas dos vários produtos às condições de
processo usam-se fornos (usando combustível) e permutadores de calor (em que um
determinado produto permuta calor com outro para aquecer ou arrefecer).
As refinarias normalmente são autónomas em utilidades (vapor, electricidade, etc..) e
obviamente para produzir vapor e para aquecer os vários produtos para os vários
processos físicos e químicos são necessárias caldeiras e fornalhas onde são queimados
combustíveis como fonte de energia para esse fim.
Já existem locais onde se faz síntese de compostos mais pesados a partir de compostos
mais leves. Não só os polímeros (plásticos, fibras sintéticas) como também já se obtêm

36/87
combustíveis a partir de gás natural (composto essencialmente por metano - CH4). Este
processo só é viável em países produtores de gás é o chamado GTL (Gas To Liquid), e
na prática é uma refinaria ao "contrário". Se numa refinaria se separam os produtos e
se fraccionam em compostos leves, aqui parte-se de compostos leves para os agregar
e formar produtos mais pesados.
Numa refinaria há muitos tipos de resíduos: efluentes gasosos, efluentes líquidos
(tratados em estações de tratamento de águas residuais), resíduos sólidos (desde lixo
doméstico, até metal, catalisadores usados, etc...) que são devidamente tratados e ou
reciclados por empresas especializadas.
Em termos da eficiência energética das refinarias, o menor ou maior consumo de
energia de um determinado processo ou unidade industrial depende da sua maior ou
menor integração energética e da maior ou menor complexidade do mesmo e das
necessidades que cada processo especifico tem de consumir energia para obter os
produtos que se desejam.
Uma refinaria mais moderna em que tenha havido um maior cuidado na sua
integração energética é mais eficiente energeticamente que outra desenhada antes
das crises do petróleo dos anos 70 e depois de todas as outras crises que se lhe
seguiram (mesmo que seja uma unidade para fazer exactamente o mesmo produto).
Normalmente as refinarias e as respectivas unidades comparam-se com outras
refinarias e unidades da mesma região geográfica quanto à sua eficiência energética
(há empresas internacionais que fazem estes estudos) e é com bases nesses tipo de
estudos e análises que uma refinaria verifica se é ou não eficiente energeticamente se
há ou não oportunidades de melhoria que levem a uma maior eficiência energética de
forma a que se coloque entre as melhores da sua classe.

GPL e outros leves


Também usamos propano nas cozinhas domésticas através de gás canalizado ou
através de garrafas de 45 kg colocadas no exterior dos edifícios.
Como o propano é mais volátil e tem uma pressão de vapor mais elevada a sua
armazenagem em botijas de gás é efectuada a uma pressão superior à do butano. Por
isso torna-se perigoso a armazenagem de garrafas de propano no interior de edifícios.

37/87
Nas chaminés saem produtos de combustão tal como de um escape de um automóvel
e é pouco provável que o cheiro dos gases de combustão que saem de uma chaminé
com altura muitas vezes acima dos 100 ou 200 metros se faça sentir na proximidade.
Só se o vento tiver uma direcção descendente, o que normalmente não acontece
A questão dos carros a GPL não poderem parquear nos parques de estacionamento
prende-se com as mesmas razões que já se apontaram para a armazenagem de
propano e butano no interior das habitações, mas não só.
Um veículo a gasolina se tiver uma pequena fuga poderá originar uma pequena
mancha de combustível no chão facilmente lavável e que se arder só arde na zona
onde está o derrame. O carro a GPL se tiver uma fuga liberta-se gás que
imediatamente vaporiza ocupando todo o volume disponível (equação dos gases
prefeitos) podendo criar uma atmosfera potencialmente explosiva e havendo o risco
de uma explosão quando por ex. se acender uma luz do parqueamento.
Num parque subterrâneo se houver uma fuga de GPL ele acumula-se na zona mais
profunda (é mais pesado que o ar) tornando muito difícil a ventilação do espaço.
Na sua utilização normal os carros a GPL são tão seguros como os a outros
combustíveis a não ser que em caso de acidente muito grave o depósito se rompa.
Enquanto num carro a gasolina é o próprio carro a arder, no caso de GPL se o depósito
romper (o que não é fácil) causa um incêndio de gpl grave (nuvem de gás a arder).

Preços dos combustíveis


À saída das refinarias os combustíveis são praticamente todos ao mesmo preço em
Portugal e Espanha (diferenças de 1 a 2 cêntimos por litro) pois todas as empresas
regulam os seus preços à saída das refinarias pelas cotações internacionais dos
produtos, A grande diferença de preço está no nível de impostos que é praticado nos
dos países seja ao nível do imposto dos produtos petrolíferos, seja no iva. Esta
diferença fiscal é o único justificativo para diferença de preços entre os dois países.
Esta é a única justificação para que duas bombas da mesma marca abastecidas pela
mesma refinaria apresentem diferença de preço entre os dois lados da fronteira
(muitas vezes essas bombas podem estar distanciadas poucas centenas de metros
umas das outras).

38/87
Os preços são definidos em bolsa. Para além das bolsas de acções e obrigações de que
todos os dias se fala, existem bolsas de matérias-primas onde são definidos em cada
dia os preços (cotações) para cada matéria-prima sejam elas petróleo, trigo, milho, ou
seja lá o que se transaccionar.
É com base nestes preços que os produtos são transaccionados internacionalmente,
sendo o preço influenciado pela quantidade disponível para transaccionar, por factores
políticos, por catástrofes, por consumos anormalmente baixos ou altos, pela época do
ano etc. etc...
Enquanto o Iraque, Irão ou Arabia Saudita são países que exportam grandes
quantidades e a suspensão do fornecimento pode ter um efeito imediato no preço, no
Brasil descobriu-se uma grande quantidade mas os poços estão agora a começara ser
infra-estruturados e provavelmente só lá para 2015 - 2016 atingirão a produção que se
espera deles, daí esse petróleo ainda não estar disponível no mercado e portanto não
influencia imediatamente o preço.

Gasolina 95 e gasolina 98 octanas


O poder antidetonante da gasolina mede-se com o chamado índice de octano.
Convencionou-se que o iso-octano (2,2,3-trimetilpentano) tem um índice de octano
100 e que o n-heptano tem um índice de octano 0. Uma gasolina com 95 de IO terá um
poder antidetonante equivalente a uma mistura de 95% de iso-octano e 5% de n-
heptano. Estes índices IO são medidos nos laboratórios das empresas produtoras de
combustíveis com a ajuda de motores especiais em que se efectua esta verificação,
pois nenhuma gasolina pode ir para o mercado sem que cumpra esta especificação.
As gasolinas são misturas de hidrocarbonetos com um número de átomos de carbono
que tipicamente varia entre 5 e 8. Quanto mais ramificadas forem as moléculas, maior
o índice de octano. O índice de octano também aumenta se as moléculas forem
cíclicas, nomeadamente com anéis aromáticos (benzeno (6 átomos de carbono),
tolueno (7 átomos de carbono), xilenos (8 átomos de carbono)).
Quanto maior for o IO melhor a performance do combustível. Os carros actuais vêm
com os motores regulados para IO 95. Todavia, os carros antigos e alguns desportivos
podem ter vantagens em usar combustível com o IO mais elevado (gasolina dos
Formula 1 tem IO superior a 100 e é produzida especialmente para esse fim).

39/87
Os compostos oxigenados como os álcoois ou os éteres (como por exemplo o MTBE -
metil ter-butil éter) aumentam o índice de octano das gasolinas.
Quando um combustível tem IO 100 não é forçoso que tenha 100% de iso-octano. Terá
uma mistura de componentes em que uns têm IO menores que 100 e outros maiores
que 100, sendo essa mistura equivalente a 100% de isso-octano.
A gasolina para um Fórmula 1 tem IO superior a 100 enquanto os carros ditos normais
foram construídos e afinados para um IO de 95.
Os carros vêm regulados para gasolina com um IO de 95 pelo que não há necessidade
de usar gasolina com IO 98 (anão ser que se queira gastar mais dinheiro). Quem tiver
um carro de alta performance pode ter vantagens em usar IO 98 (quem tem dinheiro
para um carro destes também não se importa de pagar mais uns cêntimos pelo
combustível), num carro normal não há grandes vantagens. Deve ser sempre usado o
combustível recomendado pelo fabricante do veículo sobre pena de eventualmente
danificar o carro,
A gasolina tem uma explosividade maior do que o gasóleo porque é mais volátil e
como tal forma misturas explosivas mais facilmente com ar. A gasolina tem
componentes de 5 a 9 átomos de carbono e o gasóleo componentes de 8 a 13 átomos
de carbono aproximadamente.
Quanto menor for o numero de átomos de carbono da molécula mais volátil é o
combustível e portanto mais facilmente forma misturas explosivas com o ar

Gasolinas de marca e gasolinas “dos supermercados”


Ambas as gasolinas cumprem a legislação relativamente às características que têm. As
gasolinas de marca contêm mais aditivos nomeadamente aditivos de performance que
permitem melhorar a combustão, e muitas vezes também originando melhores
consumos. Também nos supermercados os custos de exploração da bomba são
menores (menos funcionários, menos infra-estruturas de apoio) e os supermercados
ao vender a gasolina com uma margem de lucro menor vão depois buscar essa
margem a outros produtos... Ninguém vai ao supermercado só para meter
combustível. Aproveita-se para ir fazer outro tipo de compras.
Alguns cuidados no abastecimento. Outra questão muito importante e para a qual há
avisos nas bombas é que não se devem usar telemóveis durante o abastecimento de

40/87
veículos. Há libertação de vapores de combustível para a atmosfera e como os
telemóveis não são EX (Explosion proof) poderá uma eventual faísca interna do
aparelho provocar uma explosão. Sê virem todas as bombas têm o aviso para não usar
telemóveis, não fumar e um autocolante com um triângulo amarelo com as letras EX
no interior. Este último quer dizer que a atmosfera é potencialmente explosiva.
Outro conselho para evitar eventuais explosões e acidentes durante o abastecimento é
quando a pistola de combustível está a enviar combustível para o depósito do veículo
nunca abrir e fechar as portas do veículo. A eventual descarga de electricidade estática
(quem ainda não apanhou um choque eléctrico ao sair de um carro?) poderá em
determinadas condições provocar a inflamação dos vapores de combustível que se
libertam no abastecimento.
Durante a descarga de um camião cisterna a bomba não deverá abastecer veículos por
duas razões: a) Eventual existência de electricidade estática durante a descarga b) A
descarga de combustível para o depósito poderá eventualmente fazer com que
algumas impurezas do depósito emulsionem com o combustível devido à turbulência
(principalmente se o depósito estiver muito vazio quando for reabastecido). É a razão
pela qual não devemos deixar que os depósitos dos veículos fiquem muito vazios antes
de voltar a encher (há impurezas do fundo do depósito que poderão depois ir para o
motor). Por isso, após a descarga do camião deverá esperar-se alguns minutos para
que estas impurezas decantem, para que não vão para os depósitos dos veículos.

Combustíveis de aviação
O combustível de aviação é o mesmo petróleo que se usava nos antigos candeeiros a
petróleo. Este produto também chamado querosene tem um número de átomos de
carbono entre a gasolina e o gasóleo, pelo que na prática é um gasóleo mais leve.
Qualquer veículo a gasóleo poderá andar a combustível de aviação sem problemas....
O querosene depois de devidamente tratado e aditivado transforma-se então em
combustível de aviação (JETA1).
Uma das questões mais importantes nos combustíveis de aviação é que não podem ter
água residual, e têm que ter um ponto de congelação muito baixo (normalmente perto
dos -50ºC - a água congela a 0ºC), para que o combustível não congele dentro dos
depósitos dos aviões a altitudes elevadas. Se isto acontecer é fácil perceber o que

41/87
pode acontecer... Para se obter estas propriedades o combustível é devidamente
tratado e aditivado.
Estes combustíveis levam ainda aditivos para diminuir a possibilidade de formação de
electricidade estática (e portanto faíscas) durante a sua manipulação e utilização.
Os aviões militares (nomeadamente os de elevada performance como os caças) voam
a altitudes superiores às dos aviões comerciais. Nalguns casos poderá ser necessário
fornecer um combustível que congele a temperaturas ainda mais baixas...

Biocombustíveis
Muitas vezes pensa-se apenas nos combustíveis como os únicos derivados do petróleo.
Só pensamos nos preços do petróleo e dos combustíveis quando vamos à bomba
abastecer, mas as variações de preços do petróleo também influenciam uma infinidade
de produtos derivados. Se analisarmos tudo o que nos rodeia já pensaram bem na
quantidade de substâncias que são derivados do petróleo e que nós muitas vezes nem
as identificamos como tal dada a forma como as integrámos no nosso dia-a-dia?
Plásticos, borracha sintética, detergentes, lubrificantes, medicamentos, tintas,
vernizes, colas, pneus, vestuário, fibras sintéticas, pavimentos, calçado, etc. ...
Quando o petróleo acabar daqui a uns 40-50 anos e não tivermos combustíveis fósseis
para usar nos nossos meios de transporte, provavelmente substituiremos os meios de
transporte por veículos eléctricos ou a hidrogénio. Mas como substituiremos todos os
outros derivados sem os quais não conseguimos conceber a nossa sociedade?
Efectivamente os biocombustíveis podem não ser a panaceia que tantos julgam
milagrosa para a substituição do petróleo. Não é garantido que do ponto de vista de
emissões de CO2 sejam mais favoráveis que os combustíveis fósseis, para além de que
para produzir biocombustíveis não deverão ser usados terrenos e/ou plantas que
possam servir para a alimentação humana e nem se deve desflorestar floresta tropical.
Como exemplo nos estados unidos usa-se por exemplo etanol misturado com a
gasolina nalguns estados. Esse álcool é aqui produzido partir do milho. O milho na zona
do México é base da alimentação da população. O uso do milho para produzir etanol
há alguns anos atrás fez subir o preço deste cereal o que causou sérios problemas de
escassez e de aumento de preço o que afectou a alimentação de milhões de pessoas
até que foi corrigida. Este tipo de situações é pois de evitar!

42/87
Todos os biocombustíveis (ao contrário dos combustíveis fósseis) são hidrocarbonetos
oxigenados que como tal são mais facilmente sujeitos a oxidação e polimerizações que
podem por exemplo formar gomas nos motores reduzindo o seu rendimento. Este é
apenas um dos motivos porque não se usam nos veículos biocombustíveis puros,
sendo estes misturados com os combustíveis fósseis numa determinada percentagem.
A legislação actual obriga a mistura a uma determinada % de biocombustível no
gasóleo. Actualmente o biocombustível usado é o FAME que é produzido em várias
empresa de processamento de oleaginosas no país.

43/87
17 Fev. a 2 Mar. 2012 Teoria da Relatividade, GPS, neutrinos e mais...
Paulo Crawford, Centro de Astronomia e Astrofísica da Universidade de Lisboa

Funcionamento do GPS
Realmente o sistema GPS não poderia funcionar sem o recurso da relatividade restrita
e da relatividade geral. Em rigor, como a relatividade restrita está incluída na geral,
basta usar as fórmulas da RG para resolver o desfasamento entre os relógios na Terra e
os relógios atómicos colocados nos satélites do GPS a cerca de 20 000 km de altitude.
A essa distância da Terra a gravidade é mais fraca. De acordo com a TRG, os relógios
colocados em posições onde o campo gravítico é mais intenso andam mais devagar.
Por exemplo, na fronteira de um buraco negro o tempo pára. Por isso os relógios
atómicos dos satélites do GPS, colocadas a grande altitude, adiantam-se em relação
aos relógios idênticos à superfície da Terra. Contas feitas, ao fim de 24 horas, o efeito
da altitude traduz-se num avanço dos relógios dos satélites de 45 800 nano-segundos
(ns) em relação aos relógios idênticos à superfície da Terra.
No entanto, existe um outro efeito associado à velocidade que pode ser explicado pela
relatividade restrita (RR). Os satélites descrevem uma órbita em torno da Terra em 12
h. Isso implica uma velocidade de translação de cerca de 14 000 km/h, enquanto um
corpo parado à superfície da Terra se desloca a uma velocidade muito menor de cerca
1670 km/h. Essa diferença de velocidades traduz-se num atraso de 7090 ns. Resultado
final: 45800-7090=38710 ns. Isto significa, que se não corrigíssemos esta diferença
entre os relógios da Terra e os dos satélites, cometíamos grandes erros na
determinação das distâncias, e portanto na localização dos objectos. Concretamente,
em cada dia que passasse o erro seria superior a 11 km, como se verifica se
multiplicarmos o valor da velocidade da luz no vácuo por cerca de 39 µs.

Invariância da velocidade da Luz


Os corpos materiais têm sempre velocidades inferiores à velocidade da luz no vácuo, c.
A velocidade de um corpo depende do referencial, e no caso da Terra sabemos que ela
se move a uma velocidade de ~ 30 km/s à volta do Sol, e que o Sol (e todo o sistema

44/87
solar) se move a ~ 250 km/s em torno do centro da Via Láctea, a qual por sua vez se
movem em relação ao Grupo Local com uma velocidade de ~ 300km/s.
A teoria da relatividade está construída sobre este Postulado: a invariância da
velocidade da luz, no vácuo. A velocidade da luz é a mesma para todos os
observadores inerciais (que se deslocam com velocidade constante) e não é possível
acelerar uma partícula material de modo a poder atingir a velocidade da luz (a menos
que pudéssemos fornecer-lhe uma energia infinita - o que é uma impossibilidade. Este
é um postulado da relatividade restrita. Na relatividade geral este postulado continua
a ser válido a nível local, mas não globalmente. O que é que isto significa? Isto traduz-
se no facto de todos os observadores que se cruzam com um fotão medirem sempre a
mesma velocidade c (no vácuo), embora globalmente o espaço andado por esse fotão
a dividir pelo tempo que decorreu poder ser maior do que c. Mas atenção, em
relatividade geral só podemos definir velocidade localmente, pelo que a razão do
espaço global pelo tempo global não poderá ser uma definição de velocidade.
Convém ainda ter em atenção que quando falamos em medidas locais, a noção de
local não se restringe a um ponto. No caso de um campo muito fraco o local pode ser
uma região muito grande.
Nada nos impede de comparar esta velocidade com c, o que é preciso perceber é que
se eu dividir um espaço por um tempo e obtiver um número maior que c isso não
significa que há velocidades (físicas) maiores que c, pois esse número que é maior que
c não é uma velocidade física. Falamos em velocidades de recessão das galáxias - que
podem ser muito maiores do que c - mas as velocidades de recessão não são
velocidades físicas: não transportam energia ou informação.
Há velocidades maiores do que a da luz na expansão do Universo, por exemplo. Os
grupos de galáxias afastam-se uns dos outros com velocidade (de recessão) que
podem ser muito maiores do que a velocidade da luz. Basta pensa pensar que o
Universo tem uma idade aproximada de 13,7 Giga-anos mas as dimensões do universo
observável são superiores a 48 Giga anos-luz! É claro que as velocidades de recessão
das galáxias distante não são velocidades físicas, e como tal não transportam energia
ou qualquer informação a nenhum observador!

45/87
Velocidade de recessão das galáxias (não são velocidades físicas!)
De acordo com o modelo de Big Bang resultante da aplicação da Relatividade Geral
(RG) ao Cosmos, a expansão do universo é uma consequência da criação de espaço
entre as galáxias, ou melhor, entre os grupos de galáxias. Mas por simplificação
falamos em galáxias e não em grupos de galáxias. Neste modelo, admitimos as galáxias
mantêm as suas coordenadas fixas, pelo que elas estão paradas. Logo não têm
nenhuma velocidade, mas o espaço entre as galáxias está a expandir-se dando assim
origem ao afastamento global das galáxias (entenda-se grupos de galáxias). O espaço
cresce a velocidades muito superiores à velocidade da luz no vácuo, e por isso as
velocidades de recessão são, ou podem ser muito superiores a c. Com base na fórmula
conhecida por Lei de Hubble: v=H.D, a velocidade de recessão entre duas galáxias (não
esquecer que estamos a falar de grupos de galáxias) é proporcional à distância entre
elas. Logo as mais distantes afastam-se mais depressa. A constante de
proporcionalidade H, realmente é uma função do tempo: H(t), ou seja, num dado
instante, se tirarmos uma fotografia ao Universo (snap-shot) todas as galáxias usam o
mesmo H, independentemente da distância a que estão, mas à medida que o tempo
passa o H varia.
É fácil de ver com base na fórmula que há uma distância D=c/H, para a qual a galáxia se
afasta de nós com a velocidade da luz. E para D' > D=c/H a velocidade de recessão
respectiva é maior do que a velocidade da luz. E o facto é que podemos ver galáxias
que se afastam com velocidade maiores do que a velocidade da luz, o que parece um
contra-senso. Mas é assim mesmo. Na realidade o deslocamento para o vermelho
devido à expansão do Universo não é um efeito de Doppler (efeito de velocidade) mas
uma consequência da deslocação da luz num espaço-tempo curvo.
Para termina, tomemos o exemplo do balão onde se colam na superfície pequenos
papelinhos representando (grupos de) galáxias. Quando se assopra o balão todas as
galáxias se afastam umas das outras, e as mais distantes afastam-se mais rapidamente,
mas as coordenadas das galáxias mantêm-se constantes pois elas estão coladas à
superfície do balão. Dentro de cada grupo de galáxias podem existir galáxias a
aproximar-se umas das outras, mas os grupos de galáxias afastam-se todos uns dos
outros globalmente.

46/87
O que se (não) conhece do Universo…
O universo observável é só uma parte do universo. Há galáxias fora da nossa
capacidade de observação, fora do nosso horizonte, porque a luz ainda não teve
tempo de chegar até nós. Há medida que o tempo passa vamos vendo mais galáxias. É
bem possível que o universo seja infinito. E o universo que somos capazes de observar
é bem inferior ao universo real. É mesmo possível que possam existir outros universos,
muito diferentes do nosso universo observável. Mas isto é especulativo, embora seja
previsão científica possível é praticamente impossível comprovar.
Há que reconhecer que hoje possuímos muita informação sobre o Universo. Até aos
60, os modelos cosmológicos eram essencialmente matemáticos, embora baseados
numa boa teoria - a Relatividade Geral de Einstein. Hoje sabemos que a teoria de
Einstein é a melhor teoria da gravitação conhecida. Também a teoria de Newton teve
esse estatuto durante cerca de 250 anos. Depois dos anos 60 foram feitas muitas
descobertas observacionais muito significativas: a descoberta da radiação de fundo em
1965, que tem sido sucessivamente confirmada com inúmeras experiências, algumas
particularmente relevantes como o COBE e o WMAP que mostraram sem margem para
dúvidas a existência de uma radiação tipo corpo negro, que é um resíduo fóssil do
universo primitivo. Depois houve a determinação das abundâncias dos elementos
leves, Hélio, Deutério (Hidrogénio), Lítio, etc. E no final do século houve contagem e
observações de Supernovas tipo Ia que mostraram que o Universo está actualmente
em expansão acelerada.
As indicações actuais vão no sentido da expansão do universo continuar
indefinidamente. Aliás a expansão está a acelerar há algum tempo (há pelo menos 5
ou 6 milhares de milhões de anos (5 ou 6 Giga anos). Não existe ainda um modelo
explicativo que seja universalmente aceite pelo comunidade científica, embora haja
algumas tentativas explicações. Resumidamente diremos que não há uma boa
explicação. As observações actuais indicam, como disse no início, um universo em
contínua expansão. Mas não há razão para nos preocuparmos com o futuro do
universo pois muito antes disso há que ter em conta a evolução do sistema solar e a
estabilidade do Sol. Embora o Sol esteja a meio da sua existência, as condições de
estabilidade do Sol essenciais à vida na Terra vão deteriorar-se muito antes de
morrermos gelados pela expansão do Universo.

47/87
Poderemos realmente reconhecer que não sabemos de que é feito cerca de 98% da
matéria-energia de que é feito o universo. É muita ignorância, realmente, Mas aquilo
que já sabemos é, apesar de tudo, extraordinário.

Deslocamento para o vermelho


Com a Relatividade Restrita (RR), o espaço e o tempo passaram a estar interligados
através da invariância da velocidade da luz no vácuo. A consequência desta ligação
entre o espaço e o tempo foi, como sabemos, o aparecimento da noção de tempo
relativo (noção nova) a par da noção de espaço relativo. Isto é, o tempo deixava de ser
universal, o mesmo para todos os observadores, e passava a depender do referencial.
Em particular a simultaneidade de acontecimentos distantes passou a ser um conceito
relativo. Ou seja, por exemplo, a afirmação que 2 aviões partem no mesmo instante,
um deles do aeroporto da Portela e outro do aeroporto de Heathrow, pode ser
verdade para os observadores do referencial Terra mas não será para um astronauta
numa nave espacial a grande velocidade.
Isto obrigou-nos também a descrever os acontecimentos físicos numa espaço(-tempo)
a 4 dimensões mesmo na RR e quando Einstein obtém as suas equações para a sua
teoria da gravitação - a Relatividade Geral (RG) - descreve-as num espaço-tempo
curvo, onde a curvatura substitui o conceito de força gravitacional. As órbitas dos
planetas em torno do Sol são obtidas a partir de trajectórias de partículas livres
(planetas) num espaço-tempo deformado pela massa do Sol. Essas trajectórias são
geodésicas nessa geometria curva, isto é, as linhas mais direitas que são possíveis
traçar nesses espaços curvos. No caso de uma esfera, as geodésicas são os círculos
máximos, como é o caso do equador ou dos meridianos. Todos os corpos livres se
comportam da mesma maneira num campo gravítico: descrevem geodésicas. Em
particular a luz (os fotões) também descreve geodésicas, mas as geodésicas luminosas
são diferentes das geodésicas descritas por partículas materiais.
Quando a partir da Via Láctea estamos a observar uma Galáxia distante, estamos a
receber fotões enviados por essa galáxia e que chegaram até nós, tendo percorrido no
espaço-tempo curvo geodésica luminosas. Para descrever quantitativamente
(matematicamente) é muito técnico mas felizmente é possível chegar a uma resultado
simples que permite descrever o desvio na frequência (ou no comprimento de onda-

48/87
c.o.) da luz recebida em termos da frequência (ou comprimento de onda- c.o.) da luz
emitida através de uma quantidade, z, que nos dá o red-shif através da relação
seguinte: z+1 = R0/R = L0/L,
onde L0 representa o c.o. da luz recebida e L o c.o. da luz emitida. R0 e R representam,
respectivamente, o factor de escala actual, no momento da observação, e o factor de
escala no momento da emissão.
E o que é o factor de escala? É uma função do tempo R(t) que aparece na geometria
dos modelos de Big Bang e que nos dá uma ideia como as distâncias variam no tempo.
Concretamente a distância entre 2 galáxias é proporcional a R(t). Se R(t) é uma função
crescente a distância entre duas coordenadas está a aumentar, ou seja, o universo está
em expansão. Vejamos agora como interpretar o red-shift. Se, por exemplo, para uma
dada galáxia z=2, então sabemos que quando a Galáxia emitiu a os fotões que estamos
a receber o universo era 3 (=z+1) vezes mais pequeno do que é agora. Hoje conhecem-
se quasares com z > 7. Se o desvio para o vermelho fosse um efeito de Doppler nunca
poderíamos ter z > 1 ou mesmo z=1, pois nesse caso z era aproximadamente v/c e z > 1
implicaria velocidades físicas maiores do que a velocidade da luz.
Mas as fórmulas que descrevem correctamente o que acontece não são deduzidas a
partir do efeito de Doppler, mas a partir das geodésicas luminosas no espaço-tempo
dos modelos de Big Bang e o red-shift é simplesmente uma consequência da expansão
do universo, ou seja, da criação de espaço entre as galáxias, e não do deslocamento
das galáxias. Como explicado anteriormente, as galáxias mantêm as suas coordenadas
cosmológicas (em média) e portanto não têm velocidade.
Mas na realidade as galáxias estão mesmo fixas? Não esquecer que estamos a falar de
grupos de galáxias. As galáxias propriamente ditas movem-se, mas esses movimentos
podem ser transversais ou longitudinais. Neste último caso, podem ser de afastamento
ou aproximação: Andrómeda aproxima-se da Via Láctea. Aqui estamos a falar de
galáxias do mesmo grupo, sujeitas ao campo gravítico do grupo. Falando do grupo
todo podemos admitir que, em média, o centro de massa do grupo se mantém
aproximadamente constante. E é assim que se tiram as nossas conclusões.

49/87
O que é a gravidade?
Na teoria da gravidade de Einstein - a Relatividade Geral - a gravidade não é uma força,
mas uma manifestação da curvatura do espaço-tempo (a 4 dimensões). Quanto maior
for a curvatura mais intenso é o campo gravítico. À superfície de um buraco negro o
campo gravítico é muito intenso e, portanto, a curvatura é muito forte. O campo
gravítico da Terra, à superfície, é menos intenso que o campo gravítico do Sol à
superfície do Sol. Como o campo gravítico diminui com a distância ao centro da Terra,
a curvatura do espaço-tempo também. Esta propriedade da curvatura do espaço-
tempo manifesta-se de forma universal para todos os corpos independentemente da
sua natureza e composição, uma vez que é uma propriedade geométrica. Na
Relatividade Restrita o espaço-tempo não tem curvatura, é plano, porque se despreza
a presença da gravidade.
Não devemos pensar que a gravidade provoca a curvatura, mas que a curvatura é a
expressão da gravidade. Agora podemos dizer que a massa (ou qualquer energia, visto
que E=m.c2) cria curvatura à sua volta, e dessa forma manifesta a presença de um
campo gravítico.
Recorde que a força da atracção universal proposta por Newton, só depende das
massas que se atraem, da distância entre elas e do valor da constante de gravitação
universal de Newton. Por isso, se o Sol de repente explodisse e deixasse de atrair a
Terra, segundo as leis de Newton, a Terra imediatamente deixava a sua órbita siando
tangencialmente. Ora isso é equivalente a admitir que a gravidade é uma força,
segundo Newton, que se transmite com uma velocidade infinita. Mas Einstein em 1905
constrói a RR na base de um postulado, a invariância da velocidade da luz, que depois
de chegar à relação E=m.c2, traduz-se na impossibilidade da velocidade da luz ser
ultrapassada por qualquer corpo material. Mas ainda, não é sequer possível acelerar
um corpo de modo que a sua velocidade atinja a velocidade da luz em recorrer a uma
energia infinita, o que é impossível.

Buracos brancos
O conceito de buraco branco aparece muitas vezes associado ao de buraco negro pois
matematicamente a mesma equação que permite descrever a geometria dos buracos
negros, também descreve a geometria dos buracos brancos. Porém há duas

50/87
dificuldades com os buracos brancos: 1) ao contrário do que acontece com a formação
de uma buraco negro, que resulta do colapso de uma certa massa, por exemplo de
uma estrela de grande massa (m maior que 8 massas solares), não se percebe qual o
mecanismo que pode originar um buraco branco; 2) por outro lado, foi demonstrado
que os buracos brancos são soluções instáveis, ao contrário dos buracos negros, pelo
que são muito improváveis.
O buraco branco de certo modo é uma espécie de buraco negro cuja seta do tempo foi
invertida.

51/87
9 a 19 de Abril 2012 Deteção de metais no organismo humano e outras
técnicas CSI
João Valente Nabais, Departamento de Química & Centro de Química de Évora,
Universidade de Évora

Tálio e outros que tal….


O tálio é muito parecido com o potássio, elemento essencial para a nossa vida. Assim,
quando o tálio entra no nosso organismo consegue substitui o potássio e penetra nas
células, em particular no sistema nervoso central. O tálio é bioacumulavel e ataca
especialmente os testículos e o coração, causando paralisia muscular.
Um dos seus compostos, o sulfato de tálio, é bastante conhecido como um potente
veneno pelas suas propriedades especiais (não tem cheiro, não tem cor, não tem sabor
e é solúvel em água), este composto foi usado por Agatha Christie no livro The Pale
Horse, para construiu um mistério acerca de uma morte com envenenamento.
O ex-coronel russo, Alexander Litvinenko, ex-militar do serviço secreto russo (FSB) foi
assassinado através de envenenamento com tálio.
O tálio pode ser detectado por análise de sangue ou urina, em pessoas normais a
concentração deve ser menor do que 1 μg/L. Há casos relatados de pessoas que
sobreviveram a intoxicações por tálio e tinham concentração no intervalo 1 – 10 mg/L.
Os efeitos mais visíveis de envenenamento por tálio é a perda de cabelo e o efeito nos
nervos periféricos, as vitimas têm a sensação de andar sobre brasas quentes.
O arsénico é um dos venenos mais usados ao longo da história, pode ser usado ao
longo de dias ou meses, onde a pessoa vai morrer após sofrer a bioacumulação do
metal, ou através da administração de uma dose letal. Há uma teoria que afirma ter
sido o veneno usado para assassinar Napoleão Bonaparte.
A descontaminação deste tipo de poluição pode ser feita por bioremediação, usando
plantas, ou por adsorção em materiais adsorventes, através do uso de carvões
activados por exemplo.

A química das impressões digitais


Em princípio isso é possível (saber se uma pessoa consumiu drogas, fumou, bebeu, se
estava a tomar medicamentos através das suas impressões digitais), estas técnicas
foram publicadas em 4 artigos científicos. Contudo, isso não significa que possam ser
usadas em cenas de crime devido às possíveis contaminações da matriz onde são

52/87
deixadas as impressões digitais, por exemplo se um não fumador deixar uma
impressão digital numa determinada mesa e se depois junto a essa mesa se sentar
alguém a fumar, o fumo poderá contaminar a impressão digital e dar um falso positivo.
A técnica é baseada no facto de excretarmos metabolitos, por exemplo das drogas que
se tomam, pelo suor. Quando deixamos uma impressão digital deixamos um conjunto
de substâncias, uma das quais o suor. A técnica usa anticorpos específicos para
metabolitos específicos das drogas e afins os quais vão formar um complexo com uma
estrutura conhecida. De seguida é adicionado um corante fluorescente o qual se vai
ligar ao complexo e cuja presença, detectada pelos meios usuais, vai indicar se o
metabolito foi excretado.

Impressões digitais ou amostra de ADN: qual é mais relevante?


As impressões digitais e que a análise do ADN têm fiabilidade semelhante.
A Polícia Judiciária não tem base de dados de ADN.
O álcool não inutiliza a análise de ADN.
O importante: não há 2 pessoas com as mesmas impressões digitais, enquanto os
irmãos têm o mesmo ADN!

Utilização de luz na ciência forense


As equipas forenses levam para as cenas de crime um kit com um conjunto variado de
focos de luz tendo como base lasers e LEDs, os quais emitem radiação desde a zona do
ultravioleta até à zona do visível. A interação da luz emitida com as provas em cena de
crime permite a sua visualização pois algumas dessas provas são fluorescentes ou
absorvem no comprimento de onda da luz incidente. Para além disso, se se usar luz
rasante (luz que incide com um angulo rasante à superfície a analisar) isso permite
revelar a presença de pequenas partículas.
Os fluidos biológicos (sémen, saliva, sangue ou fluido vaginal) são naturalmente
fluorescentes e portanto através do uso de luz incidente com o adequado
comprimento de onda e do uso de óculos, ou filtros para as máquinas fotográficas, de
determinada cor permite visualizar a mancha do fluido biológico. A título de exemplo a
pesquisa de sangue é feita com luz de 455 nm e o uso de óculos cor de laranja.
A detecção de quantidades vestigiais de sangue mesmo após a lavagem pode ser
efectuada através do uso de luminol, que consegue detectar a presença de 1 parte por

53/87
5 milhões. O luminol foi sintetizado em 1853 e participa em reacções químico-
luminescentes em ambiente básico e na presença de uma gente oxidante que são
usadas para visualizar a presença de sangue.
O luminol reage com o grupo heme da hemoglobina emitindo luz que consegue ser
vista em ambiente escuro.

54/87
2 a 15 de Maio 2012 Radiação Espacial e Ambiente
Ana Keating, LIP/ESA

O que é a radiação? Radiação cósmica. Radiação e ciência


O espectro da radiação é muito vasto em energias, desde as ondas rádio as partículas /
astroparticulas de altas energias.
As diferentes áreas da física dedicam-se à utilização/e estudo de diferentes gamas de
energia.

(lbl.gov + A. Keating)

A radiação é muito importante pois é “o meio de comunicação” ou a nossa janela para


a compreensão da natureza e do Universo. Assim por exemplo:
 A luz, mostra-nos o mundo no visível. Ex Telescópio Hubble e as suas magnificas
fotos
 Raio X. Ex: As radiografias, e os telescópios de raios-X
 Microondas Ex: Com o seu grande comprimento de onda transportam-nos
informação dos primórdios do Universo (radiação cósmica de fundo)
 Astro partículas de altas energias. Ex: Auger, e a relação das partículas
detectadas na terra com eventos astronómicos longínquos
 etc. etc. etc.
O estudo dos raios cósmicos 106 -1011 eV é de “baixa energia” comparado com a física
das astro partículas, e considerados de “alta energia” quando comparados com o
espectro electromagnético2. É nesta zona de energias que se caracteriza a radiação a

2 10 2
Partículas com uma energia inferior a 10 eV têm um fluxo da ordem da partícula/m /s enquanto a
10
partir dos 10 eV são muito mais escassas. Ou seja, num metro quadrado temos uma partícula dessas a
20
cada segundo. Enquanto na ordem dos 10 eV precisamos de esperar 100 anos para ter uma partícula
dessas num quilómetro quadrado!

55/87
superfície dos planetas, nas cinturas de radiação e os seus efeitos nefastos quer em
componentes electrónicos, quer em materiais orgânicos e seres Humanos.
A este tipo de radiação passaremos daqui em diante a chamar, a Radiação. Esta
Radiação é originada por 5 fontes:
1. Raios cósmicos galácticos
2. Raios cósmicos extragalácticos
3. Partículas emitidas pelo sol
4. Partículas aprisionadas em cinturas de radiação
5. Radiação secundaria produzida por qualquer das anteriores por interação nas
atmosferas dos planetas, solos ou outros materiais.
Os raios cósmicos são compostos por diferentes iões pesados, protões, electrões,
fotões entre outras partículas.
Em http://esamultimedia.esa.int/multimedia/edu/Cosmic_Rays.swf podem ver um
filme ilustrativo sobre o que são os raios cósmicos.

(en.wikipedia.org Van Allen radiation belts)

Na Terra temos as cinturas de Van Allen devidas ao campo magnético terrestre. A


explicação do campo magnético e das cinturas de radiação é dada nestes dois filmes:
 Este: http://esamultimedia.esa.int/multimedia/edu/WireMagField.swf que
mostra como as linhas de campo de alteram com o campo magnético
 E este: http://esamultimedia.esa.int/multimedia/edu/ElectronMagField.swf
que explica exactamente por que, dependendo da carga da partícula, elas ficam
aprisionadas em cinturas diferentes.
Tudo tem a ver com a curvatura do campo, com a proximidade das linhas de campo e
com a carga da partícula.

56/87
Porque é que o campo magnético terrestre e as suas linhas de campo são como são?
A Terra tem um comportamento de dipolo. E numa aproximação simples as linhas de
campo deveriam comportar-se como na imagem que se segue, onde se mostra a
experiencia da limalha de ferro quando espalhada sobre um dipolo magnético.

No entanto, ditaram os desígnios da natureza que a Terra seja ainda um planeta com
um manto activo e um interior extremamente quente cujos movimentos de convexão
transportam partículas ionizadas. Ou seja:
 Cargas em movimento => corrente
 Corrente em movimentos circulares => campo magnético
 Como os movimentos são de convexão=> não exactamente repetíveis o campo
magnético é dinâmico no tempo
 Como o interior da terra tem viscosidade, a evolução temporal é muito lenta.
 Como vemos na figura que se segue o eixo magnético do nosso querido
planeta é inclinado em relação ao eixo geográfico.

57/87
Para se perceber a modulação solar temos de ver as figuras que se seguem:

Hoje a Cadance foi ao cabeleireiro, está linda!


Ora analisemos com mais detalhe…

Claro o Fineas com a sua energia veraneante e ar solar! Estava a soprar uma chiclete que rebentou e m
andou-lhe com uma rabanada de Vento (solar). Bem depois já sabem como é:
- Estás tão feito.... Mãeeeeee!!

Vejam o que aconteceu ao cabelo da Cadance, qualquer analogia com a realidade é


pura coincidência!

Campo magnético dos gigantes gasosos, no nosso sistema solar


Na figura abaixo vemos a estrutura interna dos planetas exteriores, gigantes ou
gasosos.

58/87
Júpiter é o maior deles e é o que tem a maior magnetosfera (campo magnético 20000
vezes maior do que o da Terra). A sua magnetosfera é tão grande que o bow shock (a
linha vermelha na figura que se segue, e que reverte o vento solar) fica a 3 000 000 Km
da superfície.

Mas se analisarmos a imagem com pormenor vemos duas outras linhas vermelhas.
Uma é o eixo magnético e a sua inclinação em relação ao eixo de rotação, e outra linha
representa uma cintura de radiação especial charged particles from IO.
Júpiter além de ser o planeta com uma maior magnetosfera, sofre influências das suas
4 maiores luas. Em particular Io a maior lua de Júpiter tem um vulcanismo tão activo
que ejecta iões e electrões na magnestosfera de Júpiter.
A figura abaixo mostra uma comparação entre os 4 planetas gasosos.

59/87
Obviamente as magnetosferas no sistema solar têm todas as mesmas características.
Na figura que se segue podemos ver as características de uma magnetosfera baseada
no caso da Terra. Todas têm um bow shock (linha de equilíbrio entre o vento solar e o
campo planetário), Plasmasfera, Pontos neutrais, Corpúsculo polar Magnetopausa.

No entanto, as magnetosferas variam em intensidade de campo, forma das linhas de


campo dependendo da inclinação magnética em relação ao eixo de rotação e ao plano
Eclíptico (plano onde estão os planetas). São estas diferenças, que distinguem cada
caso por si e que afectarão o ambiente de radiação de forma diferente.
Assim, podemos dizer que as magnetosferas dos gasosos são significativamente
diferentes. Embora, na verdade, o caso de Júpiter seja o mais complicado, pelo facto
de ser o de maior intensidade e que tem mais interferência em termos de radiação por
ter luas activas, que fazem do sistema planetário Joviano uma fonte de radiação per se.

60/87
O caso de Marte
O campo magnético de Marte não tem a forma de um dipolo. E é reduzido a um
campo crustal remanente. Digamos que as teorias e os dados experimentais indicam
que Marte foi perdendo a sua actividade magnética, deixando de ter um campo
magnético global. O campo magnético é localizado e tem uma intensidade máxima de
cerca de 200 nT como medido por MAG/ER a bordo da Mars Global Surveyor. Os
dipolos são locais e mudam de sentido entre zonas vizinhas. Assim sendo, a
magnetosfera de Marte é extremamente fraca e é pouco mais do que uma
perturbação no campo magnético solar.

Marte, a Lua e Vénus são casos particulares de campos magnéticos fracos ou locais.
A falta de campo magnético de Marte deve-se ao arrefecimento e diminuição da
actividade geofísica do planeta.
O campo magnético terrestre é gerado pela corrente eléctrica devida ao movimento
do nosso manto viscoso e extremamente quente. Ora esses movimentos são devido ao
geodinamismo do nosso planeta.
Voltando um pouco atrás, para compreender melhor este aspecto, veja-se o exemplo o
caso de Io, a lua de Júpiter. Esta está tão próxima de Júpiter que o seu movimento em
volta do planeta cria um efeito de stress elástico em Io, como se fosse uma bola
pinchona que quando bate no chão achata e quando sobe ao seu máximo fica
alongada.

61/87
A força gravítica de Júpiter provoca em Io um stress geodinâmico tal que leva ao seu
vulcanismo activo.
Assim, resumindo, o dinamismo interno de um planeta ou corpo celeste, pode levar ao
movimento de fluidos no seu interior. Se este fluido for ionizado, como no caso do
manto terrestre e for posto em movimento, então gera uma corrente eléctrica.
Ora, o que acontece se um planeta com estas propriedades arrefece é que os
movimento de convecção internos passam de uma escala global a uma escala local, e
ai as correntes deixando se ser globais levam à localização do campo magnético...
Marte cabe exactamente nesta explicação. Mas, claro, este é um tema quente da
exploração de Marte e muito ainda está por perceber.
Uma das versões é que Marte, o primo mais chagado da nossa Terra, com metade do
diâmetro do nosso planeta, sofre uma erosão e arrefecimento mais rápido, perdendo
assim o seu dinamismo interno. E que a aceleração dos "processos de
envelhecimento" do planeta já data do fim da era dos grandes bombardeamentos
meteóricos (há 3.6 Giga anos). A ideia, em palavras simples, é que sendo mais pequeno
estaria mais susceptível aos grandes impactos.
Além disso a gravidade equatorial em marte = 3.71m/s2 enquanto a nossa é 9.78m/s2.
Desta forma, os grandes impactos de meteoritos e a rotação do planeta sobre si
mesmo provocaram uma força centrifuga na sua atmosfera que a fez escapar-se.
E aqui entramos numa questão muito importante para a radiação. É que Marte tem
uma atmosfera extremamente fina comparada com a nossa. Ora isto faz com que os
pobres coitados dos marcianos não estejam protegidos como nós da radiação
incidente. Mas isso não foi sempre assim...

62/87
Este gráfico, da autoria de Ana Keating, tem muita informação e compara muitos
modelos, mas reparem que tem uma linha de tempo invertida (-time), ou seja que vai
do presente para o passado.
1. Neste gráfico mostra-se como varia a Dose equivalente anual com a pressão
atmosférica (a Dose equivalente é uma medida do potencial risco de um dado
ambiente de radiação)
2. No presente temos um Marte e uma Terra em cada extremo. Sendo que hoje
Marte tem uma atmosfera muito fina e a Terra tem uma atmosfera que tanto nos
protege
3. Vemos que as doses anuais em Marte hoje são 2 ordens de magnitude maiores do
que na Terra.
4. Vemos que em Marte as doses anuais são mesmo maiores do que no espaço
interplanetário.
5. Vemos que nas condições físicas de Marte, actualmente, se tivéssemos um oceano
de água à superfície teríamos doses compatíveis com as da Terra.
6. Vemos que no passado, há 4 Giga anos Marte deve ter tido um ambiente
compatível com condições de habitabilidade. Atmosfera espessa, e um ambiente
de radiação confortável para o desenvolvimento de vida.

63/87
7. Há 4 Giga anos estima-se que Marte tenha tido uma pressão e uma temperatura
em volta do ponto critico da agua, pelo que haveria em Marte um dinamismo
atmosférico muito semelhante ao da Terra.
O aparecimento e desenvolvimento da vida é fruto da evolução de um conjunto de
sistemas complexos que foram evoluindo umas vezes de forma correlacionada, outras
vezes de forma independente. Para a vida se ter desenvolvido tal como existe hoje no
nosso planeta tiveram de existir condições excepcionais, conjuntas, que foram
evoluindo de forma independente ao longo do tempo, e daí a referência a
“coincidências”. Sem duvida que a vida evoluiu no nosso planeta pois teve condições e
coincidências incríveis que se foram proporcionando!
E da mesma forma como as condições se foram proporcionando na Terra, também se
foram desproporcionando em Marte. A Terra também sofreu os bombardeamentos de
meteoritos, também arrefeceu, também evoluiu, mas numa escala de tempo e com
condições de temperatura, pressão e humidade, radiação, entre outras, compatíveis
com a criação da sua biosfera.
A razão pela qual a exploração de Marte é tão importante é que se acredita que a
comparação dos mundos nos dará informações sobre estes e tantos outros porquês.

Efeitos da Radiação
Falta então explicar porque que em Marte as doses são mais elevadas que no
ambiente interplanetário e porque que no caso de haver um oceano à superfície tudo
seria mais fácil.
1. Campo magnético fraco= fraca protecção contra protões (principal fonte de
radiação)
2. Como a atmosfera de Marte é mesmo muito fina = baixa atenuação da radiação
incidente
3. Ainda por causa de 2, a radiação chega à superfície de Marte com energia para
entrar no solo, e criar radiação secundária que é reemitida para a atmosfera.
4. A radioactividade natural comparada com o ponto 3 é mesmo quase
negligenciável! A atmosfera terrestre, por ser um meio suficientemente espesso,
faz como que a radiação incidente interaja com os seus iões diminuindo a sua
energia inicial e absorvendo os produtos de reacção. Enquanto em Marte a

64/87
radiação chega ao solo e volta à atmosfera não tendo grande atenuação. Sendo a
radiação incidente dominada por protões, esses protões interagem com o solo
gerando entre outros produtos uma enorme quantidade de neutrões.
5. Ora, é aqui que se entende bem o fenómeno da água. A água neutraliza a produção
de neutrões provocando uma diminuição muito importante na dose equivalente a
superfície. Infelizmente a hipótese do oceano de água na superfície de Marte não é
real no presente. Mas este efeito pode ser ainda importante se existirem lençóis de
água a pouca profundidade!
As doses anuais em Marte são demasiado elevadas, mas viagens espaciais de curta
duração (com permanências de 14 dias à superfície) serão da ordem das doses anuais
na Terra. O que significaria um aumento de risco equivalente ao envelhecimento de
um ano!
Para longas permanências ou se fazem casulos no subsolo, e as vindas a superfície são
reduzidas ou terão de se encontrar tecnologias viáveis para serem enviadas para
Marte de forma a conseguir-se criar campos magnéticos fortes que envolvam o casulo
habitável. Estas tecnologias são estudadas hoje em dia mas ainda estão a muitos,
muitos anos de se tornarem viáveis. Mas um dia serão viáveis, se o Homem mantiver a
vontade de explorar esse mundo e de investir no risco!

65/87
16 a 31 de Maio 2012 Acidez e Basicidade
Maria Filomena Camões, FCT/IUPAC

pH e Temperatura
A água, substância H2O, autoioniza-se com cada molécula que se autoioniza a dar
origem a um ião OH- e outro H3O+. Em água pura não há outras fontes destes ou de
outros iões e portanto estes dois estão em igual concentração e, por isso se diz que a
água é neutra; nenhum destes iões predomina sobre o outro. A esta reacção
corresponde a constante de equilíbrio conhecida como produto iónico da água,
Kw=[OH-].[H3O+], cujo valor depende da temperatura; ver tabela. A temperaturas mais
altas a reacção de ionização de ionização é mais extensa, logo formam-se mais iões
OH- e H3O+, mas sempre em quantidades iguais de uns e de outros e é Kw = [OH-]2 =
[H3O+]2. A água continua neutra.
A 25 ºC a neutralidade corresponde a pH=7, já que √ 10-14 = 10-7.
A 50 ºC é neutralidade significa √ 5,47.10-14 = 10-6,63, ou seja pH= 6,63.

Temperatura (ºC) Kw pH
0 1,10 . 10-15 7,48
10 2,88 . 10-15 7,27
20 6,61 . 10-15 7,09
25 1,00 . 10-14 7,00
30 1,47 . 10-14 6,91
40 2,71 . 10-14 6,78
45 3,98 . 10-14 6,70
50 5,47 . 10-14 6,63
60 9,55 . 10-14 6,51
75 2,09 . 10-13 6,34
100 5,13 . 10-13 6,14

“Estou numa casa à temperatura de 25ºC e tenho comigo uma garrafa de água
mineral, ligeiramente ácida, cujo pH tem o valor aproximado 6,8. A essa temperatura,
a minha água mineral é ácida. E se eu levar a garrafa para o campo, onde está uma
temperatura de 40ºC?”: mantendo a garrafa fechada, de modo que não há trocas
gasosas com o exterior, o ácido fraco que lá estava, lá fica, mas agora também mais
ionizado por causa da subida de temperatura. A concentração de iões oxónio na
solução aquosa aumenta por via do aumento da autoionização da água e pela via do
aumento da ionização do ácido e o pH diminui. Se a água, se o ácido, contribui mais

66/87
acentuadamente para esta descida, depende de qual variação com a temperatura é
maior: a do produto iónico da água ou da constante de acidez do ácido.

Gama de valores de pH
Nos seus trabalhos sobre optimização do fabrico da cerveja Carlsberg, Søren Peter
Lauritz Sørensen chegou à conclusão que, mais importante que controlar a
concentração analítica de um ácido na solução aquosa, era a concentração em iões
hidrogénio fruto da sua ionização, que, normalmente era baixa, já que resultavam da
ionização de ácidos orgânicos fracos. Pelas vantagens da notação científica, exprimiu
essa concentração na forma de potência de 10, de expoente geralmente negativo (ex:
0,1 mol.dm-3 = 10-1 mol.dm-3) e daí passou a usar só o expoente, ou potência, com o
sinal trocado (aqui no exemplo, 1), a que chamou pH. O mesmo conceito “potência
negativa da concentração de ião hidrogénio explicitada na forma de potência de 10”
exprime-se de forma equivalente pela transformada algébrica, função logarítmica e
surgiu, em 1909, pH= -lg cH+
Usando a definição para, por exemplo, 1 mol.dm-3 HCl, é pH=0, mas podemos ter
soluções mais concentradas deste electrólito forte (ionização praticamente completa);
por exemplo 2 mol.dm-3 HCl, e é pH = -0,3, ou seja um valor negativo. Nada de
extraordinário. O zero de pH não é o fim nem o princípio de nada; pH não é matéria, é
uma transformada algébrica. Entretanto, a relação entre concentração de ião oxónio
(ião hidrogénio) e de iões hidróxido em solução aquosa é regulada pelo produto iónico
da água e os dois valores variam na proporção inversa, o seu produto é igual a 10-14 (a
25 ºC). A maioria das situações práticas não tem valores extremos de pH, mas existem.

O básico de um processo de solubilização


A grande maioria dos métodos de medição de sinais analíticos funciona com amostras
líquidas, particularmente soluções aquosas, mas, nem todas as amostras “nasceram”
soluções aquosas e há que as solubilizar. Uma das orientações básicas é a de que, para
solubilizar, se deve começar pelo processo mais suave, prosseguindo, se não resultar,
para outros métodos mais agressivos: água fria e depois quente, ácido clorídrico
diluído a frio e depois a quente, ácido clorídrico concentrado a frio e depois a quente,
ácido nítrico a frio e depois a quente e finalmente água régia (1 parte de ácido nítrico
concentrado, 16 mol.dm-3, para 3 partes de ácido clorídrico concentrado, 12 mol.dm-3.

67/87
Estamos a usar os efeitos separados ou combinados, da polaridade do dieléctrico, da
acção ácida, da acção oxidante e da formação de clorocomplexos solúveis.
Recordo também a afirmação “Os metais deslocam o hidrogénio dos ácidos”. Não é,
no entanto, uma verdade universal, pois a consulta à Série Electroquímica de
potenciais redox, diz-nos quais os metais com potencial normal de oxidação superior
ao do hidrogénio e vice-versa. A concentração e as condições ácidas ou básicas, podem
alterar a previsão. Além disso, o ácido clorídrico (pelo lado do Cl-) pode formar cloretos
pouco solúveis (ex: com Ag, Pb, Hg) e meios básicos podem proporcionar a formação
de óxidos também insolúveis.
A questão de ser fácil (solubilização), tem dois significados; fácil em termos de
tendência da reacção, que se exprime pela constante de equilíbrio da reacção e fácil
em termos de velocidade, reacção mais ou menos rápida. No 1º caso estamos no
domínio da Termodinâmica, no 2º da Cinética. Sabemos que a extensão de uma
reacção depende da temperatura e sabemos também que a velocidade depende, além
da temperatura, da concentração dos reagentes, do estado de subdivisão da matéria, e
da presença de catalisadores.
São estes os conhecimentos fundamentais que estão na base da eficácia de um
processo de solubilização, que são aprofundados nos estudos científicos e que
poderão ser apresentados de forma mais ou menos resumida ou fantasiada. E como
tudo, podem ter aproveitamento benéfico, ou destrutivo, mesmo criminoso.

Qual a diferença entre neutralização e titulação?


Neutralização não é Titulação. Uma titulação é um processo de determinação da
quantidade de uma substância A (o analito) em solução, o titulado, por adição de
incrementos sucessivos de uma substância B, o titulante, em solução de concentração
conhecida, com a qual reage de forma rápida e completa, havendo um meio indicador
de avaliação do ponto de equivalência, que corresponde a todo o titulado ter reagido,
ou seja, ter-se adicionado titulante em quantidade equivalente ao titulado. Em
reacções 1:1, equivalente é igual (1 equivalente é 1 mol); para outra estequiometria,
equivalente será um múltiplo ou submúltiplo em conformidade com a estequiometria.
De uma forma geral vai-se medindo o volume de titulante e diz-se, por isso, que a
titulação é uma volumetria, mas este também pode ser gerado electroquimicamente,

68/87
por coulometria, em que a quantidade de titulante é controlada pela medição da
corrente aplicada durante um certo tempo com aplicação das leis de Faraday; é uma
titulação coulométrica.
As volumetrias podem ser de quatro tipos consoante o tipo de reacção entre titulante
e titulado:
Volumetria de precipitação- ex: avaliação da clorinidade da água do mar
Titulante: solução padrão de nitrato de prata, AgNO3 que reage com iões halogéneo,
particularmente Cl- , dando origem a uma substância altamente insolúvel, AgCl
Indicador corado (cromato de potássio) ou potenciometria.
Volumetria de complexação- ex : dureza da água, Ca2+, Mg2+titulados com EDTA,
formado-se os respectivos complexos.
Indicador: negro de eriocromo.
Volumetria redox- ex: iodimetria para indicação indirecta de Oxigénio dissolvido em
água; calcula-se a quantidade de I- por reacção com tiossulfato, S2O3- .
Indicador: amido.
Volumetria ácido-base- ex: avaliação da acidez ambiental. Titulante base forte.
Indicador corado ou potenciométrico
Neste último tipo de titulação, a reacção entre o ácido e a base produz o sal respectivo
e água (ex: HCl + NaOH → NaCl+ H2O). À medida que o titulante vai sendo adicionado,
a acidez vai sendo compensada pela base adicionada (ou vice-versa), formando-se uma
molécula de água na proporção estequiométrica 1:1 entre H+ e OH-; é uma reacção de
neutralização.
Isto não quer dizer que a solução esteja, nessa altura, neutra; ou ainda não se atingiu o
ponto de equivalência, ou já se ultrapassou e há excesso ou de ácido (ou de base), ou
está-se no Ponto de Equivalência, mas o sal formado é um sal básico (ex: acetato de
sódio, NaCH3COO), pH > 7, ou um sal ácido (ex: nitrato de amónio, NH4NO3), pH<7, que
são produto de reacção entre ácido fraco, HCH3COO e base forte, NaOH, ou de base
fraca NH3 com ácido forte HNO3, respectivamente. Só no caso de titulação de ácidos
fortes com bases fortes, ex: HCl + NaOH, se formam sais neutros, NaCl, e o pH do
ponto de equivalência é 7 (25ºC).

69/87
Qual o limite de acidez suportado pelo organismo humano?
Qual o limite de acidez suportado pelo organismo humano” faz-me lembrar um
congresso de medicina em que participei há anos; estava organizado em sessões com
títulos como:
A acidez e o aparelho digestivo,
A acidez e o aparelho respiratório,
A acidez e o aparelho circulatório,
A acidez e o sistema renal
E não me lembro se mais algum… Portanto, “...limite de acidez suportado...”, por que
parte do organismo humano?
Sabes que bebes, entre outros líquidos ácidos (pH<7), sumo de limão (pH=2), e vinagre
(pH=3). Também sabes que se entornares algum destes líquidos na pele, não te
causará dano, mas se chegares um deles aos olhos, já o resultado não é agradável.
Conclusão, diferentes partes do organismo têm valores de pH característicos e
diferentes. O pH do esófago é alcalino (pH>7); já o estômago dos adultos tem pH<2,
mas já o dos bebés, está a pH=5.
O pH ácido actua como protecção contra microrganismos patogénicos e é auxiliar da
digestão.
O metabolismo dá origem a ácidos que têm que ser neutralizados e isto é regulado por
3 mecanismos: i) efeito tampão, que pela sua acção química minimiza as variações de
pH, ii) a respiração, de acção rápida, pela qual é controlado o teor de dióxido de
carbono no sangue e iii) o mecanismo renal, de acção lenta, que também garante a
manutenção do pH do sangue nos limites normais, que são, aproximadamente, 7,35
<pH< 7,45 (Sangue venoso: 7,35-7,40. Sangue arterial: 7,40-7,45). O sangue tem
propriedades tampão que nos protegem de variações de pH extremas. Abaixo de 7,35
entra-se em acidose e a 6,85 entra-se em coma e morte celular. Acima de 7,45 entra-
se em alcalose e a 7,95 há morte celular.
O açúcar glicose é a principal fonte de energia necessária ao funcionamento do corpo
humano, através do processo básico da respiração celular que se pode representar
pela equação química em que é consumido oxigénio e produzido dióxido de carbono:
C6H12O6 + 6O2 → 6CO2 + 6H2O + energia

Açúcar em demasia.... princípio de Le Chatelier?!

70/87
O pH do líquido intracelular é cerca de 6,9, inferior ao do plasma sanguíneo, podendo
descer para 6,4 depois da realização de exercício físico intenso e, infelizmente existem
situações fatais associadas a fenómenos como o descrito.
Estamos perante um mundo complexo de reacções químicas, que num organismo
saudável funcionam de forma tão simplesmente fascinante.

Uma substância pode ser considerada um ácido segundo uma teoria e uma base
segundo outra? Qual a coerência e utilidade destas diferentes classificações?
As teorias surgem quando alguém, pensando ter percebido a justificação, o porquê de
fenómenos observados, tira conclusões mais ou menos fundamentadas, lança
hipóteses e concebe um modelo.
A classificação de alguns sistemas materiais como “ácidos” tem séculos, tendo sido
atribuída em função das respectivas características (ex: sabor azedo) e
comportamentos (ex: mudança de cor de alguns corantes vegetais-Robert Boyle, sec
XVII). Entretanto bases ou ácalis (do árabe: cinzas vegetais) eram as substâncias que
contrariavam, ou seja, neutralizavam as manifestações dos ácidos (antiácidos),
reagindo com eles dando origem a sais.
Faltava o conhecimento da razão que justificava tais propriedades. O que haveria de
comum entre os diferentes sistemas materiais que tinham aqueles comportamentos?
Ou seja, faltava, como para tantos outros tópicos do conhecimento, uma teoria
explicativa. A. Lavoisier, no século XVIII, conhecia alguns ácidos fortes (HNO3 e H2SO4) e
descobriu neles um elemento comum, O, a que, por isso mesmo, atribuiu o nome de
“Oxigénio”, que significa gerador de ácidos. Lavoisier desconhecia a composição de
outros ácidos que não contêm oxigénio, ex: HCl, e a sua definição manteve-se como
boa por mais de 30 anos, até que Humphry Davy provou a ausência de oxigénio em
vários ácidos. Digamos que Lavoisier tirou conclusões precipitadas e a sua teoria
aplicava-se apenas a um subconjunto de substâncias ácidas.
Posteriormente muitos outros autores formularam novas teorias ácido-base, ligando o
conhecimento empírico, macroscópico, com o microscópico, sendo três de
conhecimento generalizado.
A primeira foi apresentada pelo sueco Svante Arrhenius, associada à Teoria da
Dissociação Electrolítica, defendida na sua Tese de Doutoramento, em 1884, e que lhe

71/87
conferiu o Prémio Nobel da Química, em 1903. Como o nome diz, Arrhenius concluiu
que havia substâncias, que, em solução aquosa e por acção do solvente água, se
dissociavam nos seus respectivos iões, ex: NaCl (aq) → Na + (aq) + Cl- (aq). Algumas
“dissociavam-se” dando origem a H+; seria o caso dos oxiácidos, mas também, por
exemplo, de HCl (aq) → H+ (aq) + Cl- (aq). Pela primeira vez, bases foram classificadas
por si próprias, e não como meros antiácidos; eram substância que, ao dissolverem-se
em água, se dissociavam dando origem a iões OH-, ex: NaOH (aq) → Na + (aq) + OH- (aq).
Ácidos aumentam a concentração de H+ do solvente água (H2O auto ioniza-se) e bases
aumentam a concentração de OH- do solvente água. Quando ácidos e bases reagiam,
OH- e H+ dão origem a água e os respectivos aniões, neste caso Cl-, e catiões, Na+,
correspondentes a sais, NaCl.
Não há incoerência com Lavoisier, há reformulação com expansão. Do mesmo modo,
também a teoria de Arrhenius foi revista, em 1923, por alguma incorrecção e
expandida para abranger mais espécies químicas que não necessariamente compostos.
A incorrecção prende-se com chamar dissociação, i.e. separação, ao fenómeno da
formação de H+ pela dissolução de HCl em água. É verdade que se formam iões, mas
por reacção entre HCl e H2O, com quebra da ligação covalente de HCl e não
simplesmente por afastamento dos iões como acontece nas substâncias iónicas, e.g.
NaCl; não sendo uma dissociação, é uma ionização.
O alargamento dá-se com os desenvolvimentos introduzidos por J. Brønsted e T.
Lawry: “Ácido é uma espécie química (não necessariamente uma substância; pode ser
um ião, ex: NH4+) capaz de ceder protões e uma base, uma espécie química capaz de
receber protões (o ião hidrogénio de Arrhenius equivale ao protão de Brønsted e
Lawry conferindo-lhe o nome de Teoria Protónica). Surge assim o par ácido-base
conjugado e a reacção de neutralização é explicada como uma transferência de
protões entre um ácido e uma base que acontecem também em fase gasosa, HCl + NH3
= NH4Cl. É talvez a teoria ácido-base mais utilizada actualmente. A água funciona como
base quando recebe os protões do ácido e como ácido quando cede os seus protões; é
anfi-prótica, tal como outras espécies químicas que se comportam como ácidos
quando em presença de bases e como bases se em presença de ácidos mais fortes (são
anfotéricas). O conceito de ácido ou de uma base é relativo e a força traduz-se
quantitativamente pela respectiva constante de acidez, ou de basicidade.

72/87
G.N. Lewis também partilhou a Teoria Protónica de Brønsted e Lawry, mas formulou
simultaneamente a Teoria Electrónica, definindo ácido como toda a espécie que, tendo
um orbital vazio, é capaz de receber um par de electrões e base a espécie com um par
de electrões disponível e que partilham entre si, formando uma ligação covalente, ex:
BF3 + :NH3 → H3N:BF3 que alarga o universo de reacções de neutralização já
reconhecidas pelas teorias anteriores.
As sucessivas teorias são coerentes entre si, como convém para merecer ser uma
teoria!

73/87
Outubro 2012 2012: O fim do Mundo?!
João Fernandes, Observatório Astronómico da Universidade Coimbra

Mitos associados ao final dos tempos versus evidências científicas


Tem havido vários argumentos. Os mais ouvidos são: máximo de actividade solar
(fenómeno natural do ciclo solar e que na realidade será em 2013), inversão do campo
magnético terrestre (que ocorrerá mas que não se sabe quando. Não há propriamente
uma periodicidade. As inversões têm sido espaçadas de alguns milhares/milhões de
anos) e o alinhamento com o centro da galáxia (contudo, sem evidências
observacionais).
A questão do alinhamento faz pouco sentido tendo em conta as distâncias (8000 pc
Terra-centro da galáxia) e as dimensões dos corpos envolvidos: Terra-Sol-centro de
Galáxia. Recordo que o Sistema Solar tem uma órbita em torno do centro da Galáxia
com um período de aproximadamente 250 milhões de anos. O Sol terá já dado 20
voltas à Galáxia, desde que é gente.
Quanto ao calendário Maia, não há propriamente uma data final, mas sim uma
mudança de ciclo e/ou era.
O que a teoria da evolução das estrelas prevê é que, daqui a 4 mil milhões de anos, o
Sol caminhará para a fase de gigante vermelha, aumentando muito o seu raio,
"engolindo" as órbitas de Mercúrio, Vénus e (talvez) a Terra. Em todo o caso, não
parece possível que a vida na Terra (tal como a conhecemos) possa sobreviver a essa
transformação.
A respeito do pico de actividade solar, as flares solares (ejeção de massa coronal e
partículas extremamente energéticas) têm capacidade para causar danos nos sistemas
eléctricos e electrónicos. Há vários casos conhecidos. Uma dos mais famosos é o de
uma "apagão" no Canadá em 1989. Porém, teria de ser muito forte para afectar a
Terra como um todo, e ainda mais a vida humana. O ciclo solar é algo que tem
acompanhado a Terra desde sempre e não há qualquer indicação (bem pelo contrário)
que o próximo máximo solar em 2013 seja o mais elevado de sempre. No século XX,
por exemplo houve, o ciclo 19 (por volta de 1960) teve um máximo muito forte e ...
nós ainda cá estamos.
Não conheço resultados sobre a diminuição do campo magnético terrestre, até porque
este tem uma componente forte que é a contribuição da actividade solar (e esta é

74/87
cíclica). Teoricamente, no momento da inversão a Terra passaria por uma fase curta (à
escala geológica) em que o campo magnético terrestre seria nulo e aí estaria mais
exposta a radiação exterior. Porém, há resultados que indicam que (mesmo nestes
casos) o vento solar (que é magneticamente carregado) poderia servir como protector
evitando assim danos maiores à vida. Por outro lado, devemos ter em conta que a
última inversão terá ocorrido há "apenas" 800 mil anos, o que indica que estas
inversões não terão impedido a evolução humana.
(Abrandamento do movimento rotacional da Terra) De facto, a Terra roda cada vez
mais devagar, mas isso é, principalmente, uma consequência do efeito de maré do
sistema Terra-Lua. Por causa disso a Lua está a afastar-se da Terra a uma taxa de 3,8
cm/ano, tendo um impacto na duração do dia terrestre de aproximadamente 2
milisegundos por século. Não creio que haja aqui conexão com o campo magnético.
No que concerne o efeito de maré, devem ser consideradas também as marés
terrestres (movimento das placas). O efeito global tem a ver com a conservação de
momento angular do sistema. Por isso há uma concomitância entre o afastamento da
Lua e o atraso na rotação da Terra.
Sobre o impacto das tempestades solares na inversão do campo magnético terrestre,
eu diria à partida que não. Caso contrário haveria muito mais inversões e menos
espaçadas no tempo. Já agora posso adiantar, por curiosidade, que a actividade solar
(ela própria) é causada pela inversão/inversões do campo magnético solar. Só que
estas inversões no Sol dão-se com uma periodicidade de 11 anos, não comparável aos
milhares de anos no caso das inversões na Terra.
Outra causa que é frequentemente apontada como factor de possível destruição da
Terra: colisão do nosso planeta com um corpo do Sistema Solar de pequena/média
dimensão (eg. asteróide). Trata-se de algo muito sério, com trabalho de várias equipas
interdisciplinares, em vários pontos do globo. Chamo a atenção para o artigo
"Potential Hazards of Near Earth Objects (NEOS) – Truth and Consequences" escrito
por Karel A. van der Hucht e publicado há menos de um ano na newsletter da
Sociedade Europeia de Astronomia
O artigo de van der Hucht identifica uma série de NEAs potencialmente perigosos. A
classificação entre abaixo de 0.1 DL e acima tem unicamente a ver com a classificação
entre os mais e menos perigosos. O asteróide 99942 Apophis aparece na tabela e é
muito grande. Porém, passa a 5 raios terrestres da superfície (ou seja a mais de 30000

75/87
km). Importa agora ir calculando a probabilidade de colidir com a Terra. Vejam por
exemplo neste site http://neo.jpl.nasa.gov/risk/ da NASA a probabilidade actual...
Há também uma escala de perigosidade chamada "escala de torino". Trata-se uma
escala de cores (0 a 10). Na lista identificada no site da NASA há apenas 2 corpos com
um valor de 1 (e mais 2 que levantam dúvidas). O resto é 0.
Quanto a sistemas de defesa, o mais realista até à data é a colocação de uma estrutura
bélica na Lua que possa danificar ou alterar a órbita do corpo, sem que a Terra apanhe
por tabela. O problema é o alcance: o impacto míssil - asteróide teria que ocorrer
suficientemente longe da Terra, para que os restos da explosão não viessem a atingir a
Terra. Poderia ser pior a "emenda que o soneto".
Este artigo, de investigadores da ESA, aborda a questão do desvio de corpos perigosos:
http://www.esa.int/gsp/ACT/doc/MAD/pub/ACT-RPR-MAD-2006-(Acta)Optim.... É
sobre o já falado 99942 Apophis.

76/87
19 a 30 Novembro 2012 O Bosão de Higgs e o futuro da Física das Altas
Energias: o que nos reserva o LHC? Possibilidades e limitações.
Pedro Abreu, LIP/IST

O mecanismo de Higgs
É verdade que há uns meses foi feita uma descoberta fantástica em Física de
Partículas, no CERN! Se se confirmar ser o Bosão de Higgs, então permite-nos
compreender melhor o mecanismo que permite juntar mecânica quântica, as
partículas nossas conhecidas, e as suas massas. É o mecanismo de Higgs (e de Brout e
de Englert e de Anderson e de Guralnik e de Hagen e de Kibble e de 't Hooft), que
permite introduzir as massas das partículas num Modelo que não as tinha à partida. E
fá-lo de maneira extremamente elegante, ao mesmo tempo que explica porque é que
o fotão - mediador da interação eletromagnética - tem massa nula, enquanto os seus
parceiros da interação fraca - os bosões Z e W+/- têm massas tão elevadas.
A elegância deste mecanismo reside num conceito introduzido nos anos 1950/1960 - a
"quebra espontânea de simetria", que pode ser apresentado de forma leve usando
uma analogia com um sistema mecânico.
Pensemos então num lápis colocado verticalmente com o bico sobre uma mesa. O
lápis pode estar em equilíbrio durante uns milissegundos, mas irá inexoravelmente cair
na mesa. À partida, o lápis pode cair em qualquer direcção, respeitando a simetria de
rotação do sistema. Não há no plano da mesa nenhuma direcção mais provável para o
lápis. Mas depois de cair, o lápis aponta definitivamente numa dada direcção,
quebrando a simetria do sistema.
O sistema tem simetria, mas o estado de energia mais baixo deste sistema não
respeita a simetria do sistema: ocorre uma quebra espontânea de simetria do sistema,
quando este transita para o estado de energia mais baixo.
O mecanismo de Higgs (e outros) é utilizado para resolver um problema parecido. O
modelo da física de partículas e das suas interacções - Modelo Padrão (MP) para os
Físicos de Partículas - funciona muito bem para partículas sem massa, unificando a
interação eletromagnética e a interação fraca (a interação importante em certos
processos radioactivos e na fusão nuclear usada pelo Sol que nos dá energia). São
como dois aspectos da mesma interação - a interação electrofraca.
Este modelo tem sido testado com enorme precisão em experiências em todo o
mundo, não se tendo encontrado até agora desvios significativos dos resultados com o
77/87
modelo. Em particular foi verificado para energias muito elevadas (nas experiências
anteriores no CERN e nos Estados Unidos) que, de facto, a interação eletromagnética e
a interação fraca têm quase a mesma intensidade - manifestam-se como dois aspectos
da mesma interação electrofraca.
Mas, a baixas energias (do dia-a-dia), são muito(íssimo) diferentes: a eletromagnética
é mediada por uma partícula de massa nula (o fotão) e tem alcance "infinito",
enquanto a fraca é mediada por 3 partículas de massas elevadíssimas e tem alcance
curtíssimo. É como o lápis: à partida o modelo respeita a simetria electrofraca e as
partículas não têm massa, mas o estado de energia mais baixo quebra esta simetria
electrofraca, produzindo duas interacções muito assimétricas e dando massas às
partículas no processo de quebra da simetria.
O mecanismo introduzido por Higgs e outros foi o mecanismo escolhido para explicar
este processo. No modelo é introduzido/inventado um campo que preenche o
universo, e que interage com as partículas com uma probabilidade proporcional a uma
propriedade das partículas. O estado de energia mais baixo deste campo não
corresponde ao valor zero (ausência de campo) - algo que respeitaria a simetria do
sistema - mas antes a um valor diferente de zero, que leva à presença do campo no
Universo e à quebra da simetria electrofraca. Uma partícula criada numa interação
com uma certa energia, vai necessariamente interagir com este campo, atrasando
assim o seu movimento, aparentando assim que a partícula tem uma certa massa,
tanto maior quanto maior for a probabilidade de interagir com o campo.
Enquanto para várias partículas a probabilidade de interação não é prevista pelo
modelo - pode naturalmente ser obtida a partir dos valores conhecidos para as massas
das partículas - para as partículas mediadoras das interacções eletromagnética e fraca,
os valores são previstos pelo modelo, pois são consequência do processo de quebra de
simetria (passar de interação electrofraca e partículas mediadoras sem massa para
interação eletromagnética com fotão - de massa nula - e interação fraca com bosões
supermassivos).
Aliás, a massa nula do fotão pode ser facilmente compreendida se pensarmos num
bosão de Higgs sem carga elétrica: é que o fotão não interage diretamente com
partículas neutras, e portanto também não interage diretamente com o campo de
Higgs, ficando assim sem massa.

78/87
Fica assim também mais fácil testar se a descoberta é a do bosão de Higgs ou de outra
partícula qualquer: como a probabilidade de interagir com as partículas conhecidas
tem a ver com a respetiva massa, então quando o bosão de Higgs decai em outras
partículas deve produzir maioritariamente partículas muito massivas. Estudando
decaimentos desta nova partícula em diferentes tipos de partículas - de massas
conhecidas - pode-se determinar se a proporção está de acordo com o modelo para o
bosão de Higgs, ou se temos uma descoberta totalmente diferente. Por outro lado, no
MP o bosão de Higgs tem spin zero, e neste momento só sabemos que a nova partícula
tem spin zero ou spin 2 (lembro que o eletrão tem spin 1/2 e o fotão tem spin 1).
Só com o acumular de (muitos) mais dados poderão os cientistas das experiências no
CERN clarificar estas questões.
O modelo explicado em cima depende crucialmente da existência do campo de Higgs a
encher o Universo. Mesmo que exista outro mecanismo para a quebra de simetria
referida, fica-nos o problema das massas das partículas. Estas não podem ser
introduzidas no modelo de qualquer forma, pois levam a resultados absurdos. Se não
se confirma a existência do bosão de Higgs, voltamos à estaca zero. Não é como mais
uma partícula que se descobriu, e que afinal era um erro de medida. O modelo (este
modelo com o mecanismo de Higgs) não faz sentido nenhum se não existir o campo de
Higgs, que é uma pedra basilar na construção do modelo (e verificação exaustiva
experimental). Diria mesmo mais: voltamos à estaca menos um! Pois, para além da
desilusão, temos ainda para explicar uma partícula nova, muito massiva e de spin
inteiro, que não tem cabimento no modelo atual (ainda)!
Por outro lado, a confirmar-se ser esta nova partícula o bosão de Higgs, confirmam-se
ideias - muito(íssimo) boas ideias - dos últimos 50 anos.
Note-se ainda que o mecanismo de Higgs prevê de facto um campo de Higgs
preenchendo o Universo, mas como é que podemos saber se isto não passa de uma
belíssima ideia matemática para o modelo funcionar? Bom, sabemos da Mecânica
Quântica que sempre pode existir uma partícula associada a um campo (e vice-versa).
Portanto, se existir o campo, então terá que poder existir a partícula. Só precisamos de
criar as condições necessárias para criar essa partícula. E aqui é que está o problema!
Para criar partículas, concentramos energia suficiente para satisfazer a equação de
Einstein: Ecriada = massa bosão Higgs . c2

79/87
Para o termo do lado esquerdo é "fácil" - basta colidir (muitas x muitas) partículas com
energia muito elevada (superior a Ecriada/2). Mas nós não sabemos este valor, pois a
massabosão Higgs não é um valor previsto pelo modelo ou conhecido à priori. Mas
servem-nos os estudos da procura do bosão de Higgs nos últimos 50 anos, em
particular os estudos de enorme precisão realizados nas experiências do CERN no
acelerador anterior (LEP de Large Electron-Positron collider, onde funcionaram as
experiências ALEPH, DELPHI-com grande participação portuguesa, L3 e OPAL) e nas
experiências de precisão realizadas no Fermilab nos Estados Unidos. Tão grande
precisão permitiu obter uma excelente estimativa para o valor de massabosão Higgs, em
particular que mais provavelmente teria valores "baixos". Sendo que antes do LHC
arrancar, o valor mínimo era de 114 GeV/c2, com 95% de nível de confiança (para
comparação, o protão - núcleo de Hidrogénio - tem massa de 0,938 GeV/c2. E com o
mesmo nível de confiança, o valor máximo era inferior a 270 GeV/c2. Assim, quando o
LHC arrancou, tinha-se uma janela de valores de massabosão Higgs onde procurar a dita
partícula. E é precisamente nesta janela que a procura é mais difícil.

Decaimento do Bosão de Higgs


Não é difícil produzir a partícula (o acelerador foi desenhado para poder produzir
partículas com massas até 1-2 TeV/c2, embora possa em teoria e em casos muito raros
chegar a 8 TeV/c2 agora e a 14 TeV/c2 quando estiver a funcionar em 2015). Dificílimo
é estudar os seus modos de decaimento.
O seu modo de decaimento mais provável é extremamente difícil de distinguir do
fundo, isto é, de outros processos sem nenhum bosão de Higgs que produzem quase
exatamente os mesmos resultados. O modo de decaimento mais limpo, aquele que é
"fácil" de reconhecer, é extremamente raro, mas foi justamente este que permitiu
apresentar os resultados de descoberta no passado dia 4 de Julho de 2012.
O bosão de Higgs pode decair num par partícula-antipartícula, de forma direta se esta
tiver massa, ou de forma indireta se tiver massa nula. Estamos aqui a falar de
partículas elementares, portanto não pode decair em protão-antiprotão que o protão
não é uma partícula elementar.
Pensamos numa partícula elementar de massa m, por exemplo representada pela letra
ഥ , então o bosão de Higgs poderá
D, com a antipartícula representada por ࡰ
ഥ : h0→ Dࡰ
seguramente decair em Dࡰ ഥ . Como casos concretos - diretos, para partículas

80/87
possíveis para D temos: eletrão, muão, tau; quarks u,d,s,c,b,t; neutrinos do eletrão, do
muão, do tau; bosões Z, W+, W−. Pode ainda decair em fotões (2 fotões), mas de forma
indireta. Acontece que estes decaimentos todos, sendo possíveis, não são igualmente
prováveis, pois, entre outros fatores dependem também das massas, e estas são muito
diferentes para todas estas partículas.
O campo de Higgs só tem um bosão de Higgs associado. Mas nada impede a existência
de outros campos de Higgs, com os respectivos bosões associados.
Para dar massa às partículas, basta um campo de Higgs com valor no vazio diferente de
zero. E para isto basta um bosão de Higgs. Portanto podem existir outros bosões de
Higgs, mas para já não se revelaram absolutamente necessários.
Em Julho anunciou-se a descoberta de uma nova partícula que, na altura e até agora
(reportados os resultados mais recentes na conferência HCP2012 em Quioto no Japão,
há uma(s) semana(s) atrás), é perfeitamente compatível com o tão procurado Bosão
de Higgs. Mas ainda falta recolher/analisar muitos dados para saber se, nos vários
modos de decaimento obtemos, de facto, as proporções previstas pelo Modelo Padrão
para o bosão de Higgs, e possamos finalmente afirmar que a partícula encontrada é o
bosão de Higgs. Na verdade, o que afirmaremos então é algo do tipo: Com
probabilidade inferior a 0,00001%, os dados não descrevem um bosão com as
características do bosão de Higgs do Modelo Padrão!

81/87
15 a 31 Janeiro 2013 Metais e ligas metálicas: pilhas e corrosão
Anabela Boavida, Dep Química e Bioquímica / FCUL

Ligas metálicas
A união faz a força! Poderia muito bem ser o lema para a formação de ligas metálicas.
De uma forma geral, pode definir-se ligas metálicas como soluções sólidas, em que um
elemento mais abundante coexiste com outro(s) elemento(s) presente(s) em
quantidades mais reduzidas. O princípio da preparação destes materiais é o de
potenciar algumas propriedades pretendidas, nomeadamente, resistência mecânica,
tenacidade, ductilidade, resistência à corrosão, entre outros.
Os aparelhos de correcção dos dentes são fabricados recorrendo a ligas metálicas
(devido à maior resistência mecânica e resistência à corrosão) e, dentro destas,
provavelmente muitos usam ligas com memória de forma. No conjunto de
possibilidades existentes aquela que é mais comum é a NiTi. Este material é aplicado
em várias áreas da medicina, nomeadamente odontologia, e na indústria aeronáutica.
Para entender um pouco o que se passa com estas ligas têm que pensar um pouco no
tipo de organização dos átomos nos sólidos cristalinos. Um bom exemplo é o dos
alunos em sala de aula. Quando estes entram na sala já sabem o lugar que ocupam e
para haver harmonia é desejável que os outros colegas também saibam, ficando o
conjunto de alunos bem organizado. Pois bem é isso que também acontece com os
átomos dos metais - eles têm posições fixas na rede cristalina, a uma temperatura
constante. Quando ocorre alteração da temperatura, imaginemos aumenta, pode
ocorrer mudança de fase ou seja os átomos reorganizam-se de outra forma que não a
original. No entanto, quando a temperatura diminuir, o material retoma a organização
original, ou seja retoma a sua forma. Daí o nome de materiais com memória de forma.
Este fenómeno de reversibilidade de forma também acontece com estes materiais
quando eles são sujeitos a fortes deformações.
Os aparelhos de correcção dentária não enferrujam porque, a ferrugem não é mais do
óxido de ferro hidratado. Ora, como as ligas de memória NiTi não têm na sua
constituição ferro, fica afastada qualquer hipótese de se formar a ferrugem. Além
disso, as ligas NiTi apresentam elevada resistência à corrosão porque à sua superfície,
quando em contacto com o ar e/ou saliva, forma-se um fino revestimento de óxido de

82/87
titânio que actua como um escudo protector, evitando a progressiva oxidação da liga
metálica. Aliás é esta característica muito especial que o titânio tem que o torna um
material tão eficiente para tantas aplicações: medicina, aeronáutica, robótica... Mas,
não é o único. O alumínio, por exemplo, também tem esta característica. Daí a sua
grande utilização nas caixilharias que usamos nas janelas e varandas das nossas casas.
Porém, há outros factores a equacionar quando se pretende formar uma liga metálica.
Para além da reactividade com o meio exterior (traduzido pelo fenómeno da corrosão)
há que considerar o comportamento mecânico das ligas bem como o seu processo de
fabrico. Quando se junta um ou mais elementos a uma substância metálica para a
formação de uma liga, a primeira condição prende-se com a facilidade dos diferentes
componentes fundirem para a formação da liga. Com o arrefecimento e solidificação
do fundido irá formar-se uma solução sólida constituída por uma ou mais fases
cristalinas. É esperado que estas sejam mais duras que o material de partida,
revelando-se a liga como um material mais resistente mecanicamente (um dos
principais requisitos para a utilização industrial).
E claro, se ainda se pretender que este material seja resistente à corrosão é indicado
consultar a série electroquímica para se adicionar elementos com caracter redutor
pois desta forma resultado da sua oxidação aparecerá à superfície o tal escudo
protector mencionado anteriormente.

Acumulação de metais pesados no organismo


Existem alguns elementos metálicos que quando presentes no organismo humano
acima de determinados níveis, tornam-se fatais. É por esta razão que, actualmente, há
uma área na Ciência e Engenharia dos Materiais que se debruça essencialmente sobre
os biomateriais metálicos.
Estes materiais recebem esta designação porque são dispositivos metálicos que
entram em contacto com o corpo humano de forma mais ou menos permanente, por
exemplo nos actos médicos simples ou nos implantes. Nessa temática é estudada a
biocompatibilidade desses materiais para averiguar o potencial nefasto para o ser
humano.
É de realçar, no entanto, que a escolha dos materiais é feita de tal modo que na
maioria dos casos e em condições normais, os níveis dos elementos metálicos só são

83/87
detectados na corrente sanguínea após alguns anos de inclusão do dispositivo no
paciente. Outra forma de entrarmos em contacto com estes elementos será por
ingestão ou inalação de vapores de óxidos metálicos.

84/87
14 a 17 Fevereiro 2013 A Química do Amor
Paulo Ribeiro Claro, Dep. Química / Universidade de Aveiro

A escolha do parceiro
Desde 1990 se demonstrou que as mulheres são influenciadas pelo cheiro na escolha
do parceiro: aparentemente, através do olfacto, elas distinguem quais os parceiros
mais distintos geneticamente - com imunidade complementar da sua - e portanto mais
adequados para gerar "crias" saudáveis e resistentes a doenças (e isto está relacionado
com uma zona dos genes chamada Complexo Principal de Histocompatibilidade).
A espécie humana é capaz de distinguir os pedaços de proteína (peptídeos) que
caracterizam o odor próprio e distingui-los dos odores favoritos (algo que é alvo de
discussão, porque a espécie humana não tem o órgão vomeronasal, que é específico
para este efeito em diversos mamíferos).
O desencadear do interesse mútuo tem assim uma participação importante (não
única!) das informações genéticas transmitidas pelas substâncias libertadas pela pele e
reconhecidas pelo olfacto do parceiro. Além disto, as sensações que associamos à
paixão/amor resultam também da acção de neurotransmissores e hormonas
(compostos químicos, claro!) sobre os receptores do cérebro.

Alguns mitos e truques…


Os "homens a cheirar a cavalo" não são assim tão atraentes para as mulheres. De
facto, a higiene parece não colidir em nada com esta comunicação químico-olfactiva,
que é extremamente sensível a níveis que nós nem sequer cheiramos!
Um outro caso é o do cheiro das lágrimas. Os homens que cheiram lágrimas de
mulheres (sem as verem chorar) sofrem uma diminuição significativa dos níveis de
testosterona por períodos que podem ir até 2 horas (não é à toa que algumas
mulheres "usam e abusam" destas armas químicas!!!).
Outro exemplo: os homens consideram mais "sexy" o cheiro de camisolas usadas por
mulheres na fase fértil do ciclo (e as dançarinas de "lap-dance" recebem o dobro em
gorjetas nessa mesma fase).
E é verdade que o "extracto axilar" de homens contem compostos que tornam as
mulheres menos... ponderadas quanto ao que vão fazer a seguir, digamos assim.

85/87
Todas estas afirmações estão fundamentadas em artigos científicos, publicados em
revistas credíveis.
Mas tudo isto se passa ao nível de "antes do mau cheiro" ou até ao nível de "cheiro
não detectável conscientemente".

Neurotransmissores e hormonas
Alguns cientistas decidiram ver se havia algo de "químico" nos sentimentos fortes de
amor e paixão... E descobriram que sim!
Há diferenças nos níveis de algumas substâncias no cérebro de voluntários
apaixonados relativamente aos "normais". E conseguiram descobrir a diferença entre a
"paixão", violenta e perturbadora, e o "amor", sóbrio e estável.
No caso da paixão, há a alterações em neurotransmissores como a dopamina,
seretonina e epinefrina; no caso do amor, as culpadas são as hormonas oxitocina e
vasopressina... Mas para saber um pouco mais recomenda-se uma visita a "A Química
das Coisas", episódio "A Química do Amor".
Importa notar que todos os compostos que associamos ao amor/paixão estão também
associados a muitas outras funções!
A oxitocina, é um exemplo: em pequenas quantidades, é a "hormona do carinho" ou
"do abraço"; em grandes quantidades, é indutora do parto.
A vasopressina, "hormona da fidelidade", não se chama "fidelina" porque a sua
primeira função conhecida está relacionada com a pressão nos vasos sanguíneos.
A dopamina é o neurotransmissor também responsável pelas sensações de
"recompensa" (satisfação por ter conseguido algo).
E assim por diante... Ou seja, parece que mais importante do que o aumento do nível
de cada uma destas substâncias, o que interessa é a composição global do "cocktail
químico" num dado momento. Parece que os nossos actos são controlados por um
jogo de substâncias químicas que decidem quando queremos e quem queremos... E
isso deixa-nos um pouco transtornados.
Alguns neurotransmissores acima referidos estão a associados a sintomas clássicos da
paixão: mão suadas, "borboletas no estômago", perda de sono e apetite, aumento da
frequência cardíaca...

86/87
Mas a verdade é que sobre esta biologia básica - que visa especificamente a
reprodução bem sucedida (as melhores fêmeas + os melhores machos = melhores
crias) - nós temos toda a nossa bagagem cultural, educacional, emocional... E, sempre,
a capacidade de tomar decisões e a responsabilidade pelos nossos actos. Mesmo que
essa capacidade de tomar decisões seja um pouco toldada pelo cheiro do parceiro...

87/87

Você também pode gostar