Você está na página 1de 41

SECRETARIA DE ESTADO DE EDUCAÇÃO DE MINAS GERAIS

CONTEÚDO BÁSICO COMUM (CBC) DE FÍSICA - ENSINO MÉDIO – 2007

CARGAS ESTÁTICAS

Processos de Eletrização
A- Existem três tipos de Eletrização de corpos:
por atrito;
por contato;
por inducão.

1- ELETRIZAÇÃO POR ATRITO


Tem-se a eletrização por atrito quando atrita-se dois corpos . Ex.: pegando-se um canudinho de refrigerante e
atritando-o com um pedaço de papel (pode ser higiênico); observa-se através de experimentos que ambos
ficam carregados com a mesma quantidade de cargas , porem de sinais contrários.

2- ELETRIZAÇÃO POR CONTATO


Quando dois corpos condutores entram em contato, sendo um neutro e outro carregado, observa-se que ambos
ficam carregados com cargas de mesmo sinal. Ex.: tendo-se um bastão carregado e uma esfera neutra
inicialmente, ao tocar-se as esfera com este bastão verifica-se que a esfera adquire a carga de mesmo sinal
daquela presente no bastão.

3- ELETRIZACAO POR INDUÇÃO


A indução ocorre quando se tem um corpo que esta inicialmente eletrizado e é colocado próximo a um corpo
neutro. Com isso, a configuração das cargas do corpo neutro se modifica de forma que as cargas de sinal
contrario a do bastão tendem a se aproximar do mesmo. Porém, as de sinais contrários tendem a ficar o mais
afastadas possível. Ou seja, na indução ocorre a separação entre algumas cargas positivas e negativas do corpo
neutro ou corpo induzido.

FLUXO DO CAMPO ELÉTRICO


Vamos iniciar por uma idéia simples e intuitiva. Quem ouve rádio no verão em Porto Alegre está a todo
momento sendo informado que passam tantos carros por minuto no posto da Polícia Federal da auto-estrada.
Quanto maior o número de carros por minuto, maior o fluxo. Pronto, já introduzimos o conceito de fluxo. Da
mesma forma, o proprietário de uma loja mede a sua clientela pela quantidade de gente que passa pela porta
de entrada, em determinado intervalo de tempo.
Qualquer que seja o caso, veremos facilmente que o fluxo depende da quantidade daquilo que flui e da área
através da qual passa o "fluido". Portanto, quanto maior o número de clientes ou quanto maior a porta de
entrada, maior será o fluxo de clientes para o interior da loja.
Essa noção intuitiva está na origem daquilo que podemos denominar fluxo do campo elétrico (E). Numa
primeira abordagem, podemos dizer que
Fluxo de campo elétrico = intensidade de campo elétrico X área perpendicular ao campo
Logo veremos que essa definição é muito simplificada, e tem pouco valor operacional, porque em geral o valor
de E varia ao longo da superfície, e nem sempre esta é perpendicular ao campo. Podemos melhorar a definição,
dividindo a superfície em elementos tão pequenos quanto possível, de modo que E seja constante nessa área

infinitesimal. A esta área associamos um vetor , cuja direção é perpendicular à área e cujo módulo é igual à
área. Podemos manter a idéia intuitiva definindo fluxo infinitesimal,

(3.1)
Assim, o fluxo através de determinada área S é dado pela integral de superfície

(3.2)
No caso de uma superfície fechada, o vetor área é convencionalmente dirigido de dentro para fora. O fluxo
através de uma superfície fechada é assim representado

(3.3)
A Lei de Gauss
Seja uma carga Q. Imagine uma superfície qualquer, fechada, envolvendo esta carga. A lei de Gauss estabelece
que

(3.4)
A lei de Gauss é válida para qualquer situação, com campo uniforme, ou não, e para qualquer tipo de superfície
fechada, também denominada superfície Gaussiana. Todavia, para ser operacionalmente útil ela deve ser usada
apenas em determinadas circunstâncias. Uma circunstância favorável ocorre quando a superfície Gaussiana é
tal que o produto escalar entre o campo e o vetor superfície é facilmente obtido
Isso é sempre possível quando a distribuição de cargas apresenta alta simetria. Existem três tipos de simetrias
que facilitam o uso da lei de Gauss
Simetria planar;
Simetria cilíndrica ou axial;
Simetria esférica
1
A simetria planar aplica-se no caso de uma distribuição de cargas num plano infinito, ou no caso em que se
possa fazer a aproximação de plano infinito. Por exemplo, um plano finito pode ser considerado infinito, se o
campo elétrico for calculado num ponto muito próximo do plano. Isto é, se a distância do plano ao ponto for
muito menor do que as dimensões do plano
A simetria cilíndrica, ou axial, aplica-se no caso de uma distribuição linear infinita. Existem dois casos clássicos:
Linha infinita de cargas;
Cargas distribuídas num cilindro infinito.
De modo análogo ao caso anterior, um cilindro finito pode ser considerado infinito em determinadas
circunstâncias.
Existem dois casos típicos de simetria esférica:
Carga puntiforme;
Distribuição esférica de cargas.

LEI DE GAUSS & LEI DE COULOMB.


A lei de Gauss e a lei de Coulomb são formas diferentes de abordar o mesmo problema. Portanto, o cálculo do
campo elétrico para determinada distribuição de carga fornece o mesmo resultado, quer seja realizado através
de uma ou outra lei.
Então, quando e por que usar uma ou outra lei? Como regra, o uso de uma ou outra lei é determinado pelas
seguintes circunstâncias:
Distribuição de cargas com alta simetria ... Lei de Gauss
Distribuição de cargas com baixa simetria ...Lei de Coulomb.

CAMPO DE UMA CARGA PUNTIFORME


Por argumentos de simetria, é fácil chegar à conclusão de que o campo de uma carga puntiforme deve ter
simetria esférica. Isto é, o valor do campo é o mesmo para qualquer ponto sobre uma esfera. Mais do que isso,
o campo deve ser normal a esta esfera.
Portanto, a melhor Gaussiana para calcular o campo a uma distância r de uma carga puntiforme é uma esfera
de raio r.
Em qualquer ponto sobre a Gaussiana, o produto escalar será simplesmente EdS. Então, tendo em conta que E
é constante, teremos

A integral fechada sobre a superfície corresponde à área da esfera, 4pr2. Portanto, o campo de uma carga
puntiforme, q, a uma distância r, é dado por

(3.5)
Como era de se esperar, a expressão (3.5) é igual à expressão (2.3), obtida com o uso da lei de Coulomb.

DISTRIBUIÇÃO ESFERICAMENTE SIMÉTRICA


No caso de uma distribuição de cargas com simetria esférica, convém distinguir algumas situações. Em primeiro
lugar, dependendo do material o tratamento será bem diferente.
Material condutor - Já sabemos que quando uma certa quantidade de carga elétrica é colocada num material
condutor, ela se distribuirá de modo a manter o campo nulo no interior do material. Numa esfera a carga ficará
uniformemente distribuída na sua superfície. Portanto, para um material condutor não há diferença entre uma
esfera e uma casca esférica. Em ambos os casos, a carga elétrica se distribuirá uniformemente na superfície
externa.
Material dielétrico - Quando o material é não-condutor, a situação é bem diferente. A carga não se distribui
como no caso do condutor; grosso modo, ela fica onde a colocamos. Para esse tipo de material não é suficiente
conhecermos a quantidade de carga, há que se saber a forma como ela está sendo distribuída. Isto é,
necessitamos conhecer a densidade de carga no interior do material. Portanto, em termos de cálculo de campo
elétrico e uso da lei de Gauss, uma esfera dielétrica pode ser bastante diferente de uma casca esférica.

ESFERA CONDUTORA
Já vimos acima que no caso de material condutor, pouco importa se temos uma esfera maciça, oca ou se temos
uma simples casca esférica; qualquer que seja o objeto, o campo interno sempre será nulo.
De modo análogo ao caso da carga puntiforme, argumentos de simetria nos levam à conclusão de que o campo
de uma esfera condutora tem simetria esférica, de modo que a melhor Gaussiana será uma esfera concêntrica
com a distribuição de cargas. O campo é igual ao de uma carga puntiforme, dado na eq. (3.5).
Portanto, uma esfera condutora de raio R comporta-se, para pontos externos,r>R, como se toda sua carga
estivesse concentrada no seu centro.

ESFERA DIELÉTRICA
Vamos considerar o caso em que a distribuição de cargas é uniforme. Isto é, a densidade r, dada em C/m3, é
constante. Poderíamos ter uma distribuição mais complexa, na qual a densidade variasse com a distância ao
centro.
Região I - r > Raio da distribuição (R)
O cálculo é análogo ao do campo de uma carga puntiforme. O resultado tem a mesma forma apresentada na
eq. (3.5). Se a carga total, Q, for conhecida, basta colocá-la no lugar de q. Se ao invés disso, conhecermos a

2
densidade, r, então a carga será dada pelo produto da densidade pelo volume da esfera, Q=4pR3r/3,
resultando

(3.6)
Portanto, uma esfera condutora de raio R comporta-se, para pontos externos,r>R, como se toda sua carga
estivesse concentrada no seu centro.
Região II - r < R
A carga que aparece na lei de Gauss;

é aquela envolvida pela superfície Gaussiana, isto é, a carga no interior do volume 4pr3/3. Se conhecemos a
densidade de carga, teremos Q=4prr3/3. O campo no interior da esfera será dado por

(3.7)
O variação do campo, em função do raio, é representada na figura abaixo.

DISTRIBUIÇÃO LINEAR INFINITA


Vamos considerar o caso em que a distribuição de cargas é uniforme. Isto é, a densidade r, dada em C/m3, é
constante. Poderíamos ter uma distribuição mais complexa, na qual a densidade variasse com a distância ao
centro.
Argumentos de simetria permitem concluir que o campo apresenta simetria cilíndrica. Isto é, a intensidade é a
mesma em qualquer ponto da superfície lateral de um cilindro, cujo eixo coincide com o eixo da distribuição da
cargas, e a direção é perpendicular a esta superfície lateral.
É óbvio que a superfície Gaussiana mais apropriada é o cilindro indicado na figura ao lado. A integral fechada da
lei de Gauss pode ser desdobrada, transformando-se numa soma de integrais de superfície, ao longo das bases
do cilindro e ao longo da superfície lateral.

Em qualquer ponto das bases, os vetores E e dS são perpendiculares entre si, de modo que as duas primeiras
integrais são nulas. Na superfície lateral, o campo é constante e tem a mesma direção do vetor dS. Portanto,

Portanto, uma esfera condutora de raio R comporta-se, para pontos externos,r>R, como se toda sua carga
estivesse concentrada no seu centro.
A carga no interior da Gaussiana é q=lh. Portanto, o campo criado por uma distribuição linear infinita, a uma
distância r do eixo da distribuição, é dado por

A LEI DE GAUSS
PLANO INFINITO DE CARGAS
Vamos considerar uma distribuição infinita de cargas, com densidade uniforme +s
Por simetria conclui-se que o campo é perpendicular ao plano de cargas, e que sua intensidade é constante ao
longo de qualquer plano paralelo ao plano de cargas. Portanto, o cilindro da figura acima é uma boa escolha
como superfície Gaussiana. De modo análogo ao procedimento adotado no caso da simetria cilíndrica, a integral
fechada pode ser desdobrada em integrais abertas, ao longo das bases e da superfície lateral da Gaussiana

Em qualquer ponto da superfície lateral, os vetores E e dS são mutuamente perpendiculares, de modo que o
produto escalar é nulo. Por outro lado, tanto na base1, quanto na base2, E é constante e paralelo a dS, de modo
que

A carga no interior da superfície Gaussiana é q=sA, resultando

(3.9)

FORÇA ELÉTRICA

3
A força elétrica se estabelece entre dois corpos que têm cargas elétricas, ou seja, que estão eletrizados. Essa
força é dada pela seguinte fórmula:

- Q1 é a carga do corpo 1;
- Q2 é a carga do corpo 2;
- D é a distância entre o centro de gravidade dos dois corpos;
- Ko é a constante dielétrica do vácuo, sendo:

De acordo com a Física, a força elétrica é mediada pelo fóton. Para "Deduções Lógicas", o fóton é mediador
somente da luz visível; portanto, outra partícula, que não seja o fóton, faz a mediação da força elétrica, de
maneira análoga ao fóton e ao energétron, sofrendo os mesmos efeitos daqueles relacionados com a luz e a
Gravidade Lógica, a saber:
- a influência com a velocidade da sua fonte;
- aberração;
- e outros.
Essa força é a responsável pelo equilíbrio dinâmico entre o elétron e o núcleo dentro do átomo, e também pelo
ordenamento dos átomos e moléculas, o que, na Química, se conhece como forças intramoleculares.

ELETRICIDADE POSTA A TRABALHAR


(Parte 4)
Prof. Luiz Ferraz Netto
leobarretos@uol.com.br
Campos elétricos
A idéia de um campo de 'força' elétrico existente em torno de uma carga elétrica desenvolveu-se gradualmente
através dos anos. Sabia-se perfeitamente, no tempo de Franklin, por exemplo, que um campo elétrico pode
exercer forças de atração ou de repulsão sobre corpos carregados que estejam nas proximidades. Mas,
exatamente como nos campos magnéticos, o mecanismo pelo qual era exercida a força elétrica ainda não tinha
sido descoberto. Pensava-se, a princípio, que alguma coisa --- talvez "emanações elétricas" --- emergisse dos
corpos carregados para exercer a "força misteriosa". Mas, experiências após experiências, provaram que as
forças elétricas podiam ser exercidas através dos melhores isolantes --- vidro, ar seco, enxofre --- isolantes que
bloqueavam efetivamente o movimento da carga. Franklin mostrou, também, que o campo elétrico nas
vizinhanças de um corpo carregado não é removido quando o ar adjacente é retirado. Tais observações
forçaram Franklin e seus contemporâneos a abandonar a idéia das "emanações elétricas" como agente produtor
da força. Nenhuma explicação mecânica satisfatória dos campos elétricos e magnéticos jamais tinha sido
imaginada para substitui-la.
Nosso conceito moderno de campo elétrico foi desenvolvido por Michael Faraday em 1837. Ele vinha estudando
a decomposição das soluções químicas colocadas entre dois elétrodos ligados a uma fonte de tensão elétrica.
Começou a imaginar se alguma coisa aconteceria se ele colocasse isolantes sólidos entre os dois elétrodos de
placa, em vez de um eletrólito condutor.
O diagrama, a seguir, mostra duas placas ligadas a uma bateria. Na primeira ilustração, o espaço entre as
placas está cheio de ar, e na segunda ilustração, com um material isolante, tal como o vidro. Ambos são
ilustrações de capacitores, idênticos em princípio, ao frasco de Leyden.
Um capacitor pode aceitar uma carga maior, da mesma bate-
ria, quando o ar entre as placas for substituído por um isola-
dor sólido (vidro, mica etc.)
Faraday sabia que a quantidade de carga elétrica que pode ser colocada nas placas dos dois capacitores
(ilustração acima) é bastante diferente. Se ambas as tensões forem iguais, o mesmo acontecendo com as áreas

4
das placas e as distâncias entre elas, a quantidade de carga que entra nas placas depende da natureza do
isolante elétrico. Suponhamos que uma quantidade de carga Q entra nas placas do primeiro capacitor, sendo +
Q na placa superior, e - Q na placa inferior. Faraday sabia que uma quantidade maior de carga, + kQ e - kQ
entraria nas placas do segundo capacitor. A letra k representa um número qualquer, como dois ou sete. Ela nos
diz que a adição de uma substância isolante entre as placas aumenta a carga por um fator k.
Para qualquer isolador em particular, a carga tem uma magnitude k vezes a magnitude que teria, se o espaço
entre as placas estivesse vazio (vácuo). Assim, k é uma medida da influência do isolador sobre as propriedades
eletrostáticas do capacitor. Faraday chamou a isto de "capacidade indutiva especifica" do isolador; o termo
moderno correspondente é constante dielétrica de um material. Similarmente, o isolador colocado entre as
placas --- através do qual agem as forças eletrostáticas --- é chamado de dielétrico.
As constantes dielétricas de alguns dielétricos são as dadas abaixo:
Dielétrico Constante dielétrica
vácuo 1,0
ar 1,0006
papel 2
parafina 2
borracha 2,2
vidro 5 a 10
mica 6a7
água 81
LINHAS DE FORÇA ELÉTRICAS
Faraday percebeu a analogia existente entre o dielétrico de um capacitor e o núcleo de ferro de um eletroímã. O
primeiro aumenta a carga que o capacitor aceitará, e o último aumenta o magnetismo que uma bobina pode
produzir. Ele achou que podia explicar o efeito dos dielétricos, introduzindo o conceito de "linhas de força
elétricas", semelhantes às 'linhas de força magnéticas' que tinha usado com tanto sucesso em suas pesquisas
sobre magnetismo.
Faraday definiu uma linha de força elétrica como a trajetória retilínea seguida por uma pequena carga positiva
abandonada nas vizinhanças de um pequeno corpo carregado eletricamente. Conforme se vê na ilustração
abaixo, em (a), as linhas de força elétricas em torno de uma esfera carregada propagam-se radialmente,
partindo da esfera.
Linhas de força elétrica de Faraday, (a) em torno de uma esfera carregada,
(b) entre esferas carregadas com cargas de sinais opostos, e
(c) entre placas carregadas com cargas de sinais opostos
Somente umas poucas linhas estão traçadas no diagrama acima, mas todo o espaço deve ser considerado como
repleto de tais linhas de força. As setas sobre as linhas de força indicam que uma carga positiva é repelida pela
esfera carregada positivamente. O diagrama (b) ilustra as linhas de força entre duas esferas carregadas com
cargas de sinais opostos. Uma vez mais, uma pequena carga positiva seguiria uma trajetória reta indicada pela
linha de força horizontal. O diagrama (c) apresenta as linhas de força entre duas placas paralelas de um
capacitor, no qual é mantida uma tensão elétrica fixa. Cada linha de força pode ser considerada como
originando-se em uma carga positiva unitária e terminando em uma carga negativa unitária. Também a
intensidade do campo magnético entre as placas depende do número de linhas de força existentes entre as
placas.
Faraday introduziu então a idéia de carga elétrica induzida em um dielétrico. Considerou um dielétrico como
consistindo de um grande número de "pequenos condutores isolados". Nós os chamaríamos de moléculas. Cada
uma dessas moléculas está inicialmente 'descarregada'. Elas contêm a mesma quantidade de carga positiva e
negativa, e são eletricamente neutras. As cargas são fixas nas moléculas, e não podem ser transferidas de uma
para outra (como no caso de condutores metálicos), mas podem ser deslocadas ligeiramente dentro das
moléculas.
A ilustração abaixo mostra várias moléculas representativas de um dielétrico colocado entre as placas de um
capacitor.
As cargas elétricas das placas produzem um campo elétrico (eletrostático) na região situada entre as placas.
Cada molécula é eletricamente polarizada pelo campo elétrico, ficando com iguais cargas elétricas positivas e
negativas induzidas nas extremidades opostas.
Importante: Nos limites entre o dielétrico e cada placa, as cargas moleculares adjacentes neutralizam o campo
elétrico de uma parte da carga da placa. Isto tende a reduzir o número de linhas de força que se estendem
entre as placas, e a bateria pode, por isso, enviar carga adicional para as placas. As cargas moleculares não
podem deixar o dielétrico e entrar na placa adjacente. Diz-se que elas constituem uma 'carga confinada à
superfície'.

A RELAÇÃO ENTRE OS CAMPOS ELÉTRICO E MAGNÉTICO


Os campos elétrico e magnético tornaram-se conceitos indispensáveis em muitas áreas científicas. Eles
constituem o meio intermediário pelo qual as forças elétricas e magnéticas podem ser exercidas no espaço
vazio. Os cientistas os consideram como conceitos fundamentais porque não podem ser explicados em termos
de idéias ainda mais simples. A despeito do fato de que nossos sentidos não podem percebê-los, eles são tão
reais para os cientistas como o ar que respiram.
Uma revisão de nossos conhecimentos sobre eletricidade e magnetismo revela uma importante relação entre os
campos elétrico e magnético. Uma corrente elétrica é meramente um movimento ordenado de cargas elétricas.
Estas (as cargas) têm, cada uma, um campo elétrico associado com ela. Uma "corrente de cargas", portanto,
carrega com ela um campo elétrico móvel. Mas Oersted provou que uma "corrente de cargas elétricas" produz

5
um campo magnético. Devemos concluir, portanto, que um campo elétrico móvel dá origem a um campo
magnético.
Imaginemos agora um ímã deslocando-se ao lado de um condutor como um pedaço de fio de cobre. O campo
magnético móvel induz uma força eletromotriz no fio. Isto significa que uma extremidade do fio obtém uma
carga positiva, e o outro, uma carga negativa. Mas essas cargas produzem um campo elétrico. Portanto, um
campo elétrico móvel dá origem a um campo elétrico. Como veremos, Maxwell incorporou mais tarde essas
idéias gerais em sua teoria eletromagnética --- uma teoria que ligou a eletricidade com a luz e previu também a
existência das ondas de rádio.
A rotação de Faraday
A descoberta de que a luz era de certo modo relacionada com a eletricidade e o magnetismo foi obra de
Faraday, em 1845. Após revelar as relações até então ocultas entre a eletricidade e o magnetiSmo, ele começou
a procurar uma interação entre o magnetismo e a luz. O aparelho que utilizou foi simplesmente um pedaço de
vidro grosso e um eletroímã em forma de ferradura. Colocou o pedaço de vidro em contato com os pólos
magnéticos, conforme se vê abaixo. Em seguida, passou um feixe de luz polarizada pelo vidro, de maneira que
ele se deslocasse essencialmente na mesma direção que as linhas magnéticas de força entre os pólos. Quando
ele estudou a luz que emergiu do vidro, verificou que ainda estava polarizada, mas que seu plano de
polarização havia sido modificado pelo campo magnético. Aparelho de Faraday para mostrar que a luz é
relacionada com a eletricidade e o magnetismo. A luz polarizada penetrando no vidro passa por uma
transformação em seu plano de polarização, enquanto estiver presente um campo magnético
Para ilustrar, suponhamos que a luz que penetra no vidro seja polarizada assim //// - as vibrações de luz
ocorrendo somente na direção (/); a que passa através do vidro torna-se polarizada assim = e que a luz que
emerge do vidro estaria então vibrando em um plano diferente, assim \\\\ - fazendo um ângulo com o plano
horizontal.
Este "efeito de Faraday", como é chamado, ocorre sempre que uma luz polarizada passa através de uma
substância transparente, ao longo das linhas de força de um forte campo magnético.
O efeito de Faraday demonstrou a íntima relação entre as ondas de luz e o eletromagnetismo. Sabemos hoje
que o efeito é causado por pequeninas correntes elétricas dentro de átomos individuais. Quando colocadas em
um forte campo magnético, essas correntes são ligeiramente modificadas dentro do átomo. Mais tarde, foi
demonstrado que essas modificações produzem a rotação do plano de polarização, observada por Faraday.

ENERGIA ELÉTRICA
Em 1843, ainda perdurava a batalha sobre o principio da pilha voltaica. Um grupo argumentava que a
eletricidade provinha do contato de metais dessemelhantes, enquanto o outro retrucava que a eletricidade era
produzida pelas reações químicas ocorridas dentro da pilha. Faraday salientou que uma corrente elétrica pode
produzir trabalho útil, como no caso da deflexão da agulha de uma bússola. Esse trabalho deve ser executado a
expensas da energia química armazenada na pilha. Ele ainda foi um passo além, mostrando que a quantidade
de corrente enviada a percorrer um circuito é proporcional à quantidade das substâncias químicas gastas.
A conexão entre a eletricidade e outras formas de energia foi esclarecida por James Prescot Joule. Ele sabia que
o calor e o trabalho mecânico eram meramente duas formas diferentes de energia. Em 1843, provou que a
eletricidade também era uma forma de energia, conversível nas outras formas em uma proporção de troca bem
definida.
Joule passou uma corrente de intensidade conhecida por um fio e mediu a quantidade de calor produzida pelo
fio na unidade de tempo. A quantidade de energia calorífica por unidade de tempo foi proporcional à resistência
do fio multiplicada pelo quadrado da intensidade da corrente. Em unidades modernas, a energia térmica (antes,
se dizia 'calorífica') é medida em joules, a corrente em ampères, e a resistência em ohms. Empregando estas
unidades, a descoberta de Joule pode ser expressa como uma equação:
Energia térmica por unidade de tempo = Resistência x(Corrente )2
E/Dt = R.I2
onde o intervalo de tempo Dt é medido em segundos. O lado esquerdo da equação E/Dt, é definido como
potência elétrica do fio resistor, ou seja, é a razão (ou rapidez) com que nesse dispositivo a energia elétrica é
convertida em térmica. A potência é medida em unidades chamadas watt, em homenagem a James Watt.
Um watt, é equivalente a um consumo de 1 joule de energia a cada segundo. Se P representar a potência, a
equação pode ser escrita da seguinte forma:
P = R.I2
Para ilustrar o seu uso, suponhamos que uma corrente de intensidade 7 ampères passa através um elemento
aquecedor de resistência de 10 ohms. A relação de Joule diz-nos que a energia elétrica é transformada em
energia calorífica (térmica) nesse aquecedor, a uma razão de P = 10 x 72 = 490 watts.
Utilizando sua nova descoberta, Joule pôde mostrar uma relação numérica entre a energia química de uma
bateria, a energia elétrica de um circuito e a energia mecânica ou trabalho executado por um motor. Ele
dissolveu um peso previamente medido de zinco em um ácido, e verificou que uma quantidade definida de
calor foi despendida (Q1). Em seguida, fabricou uma pilha voltaica utilizando o mesmo peso de zinco, e
descobriu que foi transmitida uma quantidade de calor consideravelmente menor para a pilha (Q2), quando o
zinco se dissolveu. Ele enviou por um fio a corrente produzida pela pilha e mediu o calor produzido pelo fio (Q3).
Demonstrou que essa quantidade de calor correspondia à diferença entre o calor produzido pela simples
dissolução do zinco no ácido, e o que é produzido quando o zinco é dissolvido como um elemento de uma pilha
voltaica (Q3 = Q1 - Q2). Ali estava uma prova evidente de que a energia elétrica de uma bateria provém da
energia química contida em seus componentes.
Joule também demonstrou que a energia elétrica é convertida em trabalho mecânico por um motor elétrico.
Passou por um motor a corrente de uma bateria e verificou que a energia química despendida na bateria era
igual à soma de duas quantidades: o aquecimento R.I2 dos fios condutores, e o trabalho mecânico executado
pelo motor.
6
Joule publicou suas idéias revolucionárias em um documento histórico datado de 1843, On the calorific effects
of Magneto-Electricíty and on the mechanical value of Heat.
Nos anos seguintes, outros cientistas desenvolveram suas idéias. As contribuições de William Thompson (Lorde
Kelvin) para a termodinâmica já foram descritas anteriormente. Em 1847, Hermann Helmholtz (1821-1894)
publicou um importante panfleto, Erhaltung der Kraft ("Conservação da Energia"), que havia sido recusado para
publicação por um jornal científico importante, Annalen der Physik. Suas idéias eram demasiado revolucionárias
para os cientistas da época. Helmholtz assegurava que a conservação da energia é uma lei básica da natureza;
que a energia cinética dos corpos em movimento, ou a energia potencial da água represada por trás de uma
barragem, podem ser convertidas em calor de acordo com leis definidas, como ensinara Joule; e que qualquer
dessas formas de energia pode ser convertida nas formas química, eletrostática, magnética ou voltaica.
A energia passara a ser um denominador comum que unia a química, o calor, a mecânica, a eletricidade e o
magnetismo. Como uma forma de energia, a eletricidade apresentava grandes promessas para o futuro. Ela
podia ser gerada em grandes quantidades em usinas de força centrais, e transmitida por fios até os utilizadores.
Uma vez ali, ela podia ser convertida em outras formas de energia, para realizar trabalhos específicos. Homens
como Davy, Ohm, Faraday e Joule, tinham descoberto as leis básicas da eletricidade e do magnetismo. Agora,
outros assumiam a tarefa de utilizar a eletricidade a serviço do homem.

ELETRODINÂMICA

CORRENTE ELÉTRICA
Na Física, corrente elétrica é o fluxo ordenado de partículas portadoras de carga elétrica. Sabe-se que,
microscópicamente, as cargas livres estão em movimento aleatório devido a agitação térmica. Apesar desse
movimento desordenado, ao estabelecermos um campo elétrico na região das cargas, verifica-se um
movimento ordenado que se apresenta superposto ao primeiro. Esse movimento recebe o nome de movimento
de deriva das cargas livres.
Raios são exemplos de corrente elétrica, bem como o vento solar, porém a mais conhecida, provavelmente, é a
do fluxo de elétrons através de um condutor elétrico, geralmente metálico.
O símbolo convencional para representar a intensidade de corrente elétrica (ou seja, a quantidade de carga Q
que flui por unidade de tempo t) é o I, original do alemão Intensität, que significa intensidade.

A unidade padrão no SI para medida de intensidade de corrente é o ampère. A corrente elétrica é também
chamada informalmente de amperagem. Embora seja um termo válido, alguns engenheiros repudiam o seu uso.
A corrente elétrica consiste no movimento ordenado de cargas elétricas, através de um condutor elétrico. A
corrente elétrica é definida como corrente elétrica real (sentido do movimento dos elétrons) e corrente elétrica
convencional (consiste no movimento de cargas positivas). Condutor é todo material que permite a mobilidade
fácil dos elétrons, sendo os melhores condutores os metais. Quando o material não permite essa mobilidade dos
elétrons , ele é dito isolante, por exemplo madeira. Há dois tipos de corrente elétrica: corrente contínua - gerada
por pilhas e baterias e corrente alternada - gerada por usinas que transformam qualquer tipo de energia em
elétrica, a qual chega até nossas casas. A corrente elétrica que circula através dos resistores, pode transformar
energia elétrica em energia térmica, sob efeito joule.

ENERGIA POTENCIAL ELÉTRICA


POTENCIAL ELÉTRICO
Desejando-se que os portadores de carga fluam através de um resistor, devemos estabelecer uma diferença de
potencial entre suas extremidades. Um modo de fazê-lo seria ligar cada extremidade do resistor a uma esfera
condutora independente, uma esfera carregada negativamente e a outra positivamente, como na figura 1. O
problema com esse arranjo é o fato de que o fluxo de carga atua no sentido de descarregar as esferas, levando-
as rapidamente ao mesmo potencial. Quando isso acontece, o fluxo de carga cessa.
Para mantermos um fluxo constante de refrigeração no sistema refrigerador de um carro, necessitamos de uma
bomba d'água, um dispositivo que - realizando trabalho sobre o fluido - mantém uma diferença de pressão entre
suas extremidades de entrada e de saída. No caso elétrico, necessitamos de uma bomba de carga, um
dispositivo que - realizando trabalho sobre os portadores de carga - mantém uma diferença de potencial entre
seus terminais.
Chamamos tal dispositivo um dispositivo de fem e dizemos que ele fornece uma fem significando que
trabalha sobre os portadores de carga.
Um dispositivo de fem é às vezes chamado de sede de fem. O termo fem vem da antiga denominação força
eletromotriz, adotada antes que os cientistas entendessem claramente a função de um dispositivo de fem.
Um dispositivo comum de fem é a bateria, usada para prover de energia mecanismos desde os de relógios de
pulso até submarinos. Entretanto, o dispositivo de fem que mais influencia nossas vidas diárias é o gerador
elétrico, cuja produção de diferença de potencial é trazida geralmente de usinas distantes até as nossas casas e
locais de trabalho. Os dispositivos de fem conhecidos como células solares, muito usadas em painéis de
veículos espaciais, também proporcionam aplicações domésticas no meio rural. Os dispositivos de fem menos
familiares são as células de combustível que provêm de energia as espaçonaves e as termopilhas, que
fornecem energia elétrica a bordo de algumas espaçonaves e estações remotas na Antártica e outras regiões.
Outro exemplo, é o gerador de Van de Graaff, em que a diferença de potencial é mantida pelo movimento
mecânico da carga sobre uma correia isolante. Um dispositivo de fem não precisa ser um instrumento: sistemas
vivos, abrangendo desde enguias elétricas e seres humanos até plantas, possuem dispositivos fisiológicos de
fem.

7
Uma corrente constante não pode existir neste dispositivo porque não há um mecanismo capaz de manter uma
diferença de potencial constante através do resistor. Quando o fluxo de carga tiver descarregado as esferas
inicialmente carregadas, a corrente cessa.
Embora os dispositivos que citamos difiram amplamente no modo de operação, todos eles desempenham a
mesma função básica: realizam trabalho sobre os portadores de carga e, assim, mantêm uma diferença de
potencial entre seus terminais.

TRABALHO, ENERGIA E FORÇA ELETROMOTRIX


A figura 2 mostra um dispositivo de fem (vamos considerá-lo uma bateria) que é parte de um circuito
simples. O dispositivo mantém seu terminal superior carregado positivamente ("terminal positivo'') e seu
terminal inferior carregado negativamente ("terminal negativo") como é mostrado pelos sinais + e -.
Representamos sua fem por uma seta que aponta do terminal negativo para o terminal positivo. E neste sentido
que o dispositivo faz com que os portadores de carga positiva se movam através dele. O dispositivo também faz
com que esta corrente se mova ao redor do circuito no mesmo sentido (horário na Fig. 3). A seta da fem inclui
um pequeno círculo para distingui-la das setas que indicam o sentido da corrente.

Figura 2. Um circuito elétrico simples, em que um dispositivo de fem trabalha sobre os portadores de carga e
mantém uma corrente constante através do resistor.
Dentro do dispositivo de fem, os portadores de carga positiva se movem de uma região de baixo potencial
elétrico e assim de baixa energia potencial elétrica (no terminal negativo) para uma região de potencial elétrico
mais alto e energia potencial elétrica mais alta (no terminal positivo). Este movimento é justamente oposto
àquele que os portadores de carga teriam, entre os terminais, sob ação do campo elétrico (que aponta do
terminal positivo para o terminal negativo).
Desse modo, deve haver alguma fonte de energia dentro do dispositivo que lhe permita realizar trabalho sobre
as cargas e assim forçá-las a se moverem no sentido da seta da fem. A fonte de energia pode ser química,
como numa bateria ou numa célula de combustível. Ela pode envolver forças mecânicas, como num gerador
convencional ou um gerador de Van de Graaff. Diferenças de temperatura podem suprir a energia, como numa
termopilha; ou a energia solar pode supri-la, como numa célula solar.
Vamos analisar o circuito da Fig. 2 do ponto de vista de trabalho e transferência de energia. Em qualquer
intervalo de tempo dt, uma carga dq passa através de qualquer seção transversal deste circuito, tal como aa'
na Fig. 3. Esta mesma quantidade de carga deve entrar no dispositivo de fem pela extremidade de baixo
potencial e deve sair dele pela extremidade de alto potencial. O dispositivo deve realizar uma quantidade de
trabalho dW sobre o elemento de carga dq para forçá-lo a mover-se deste modo. Definimos a fem de um
dispositivo de fem em termos desse trabalho:

(1)
Resumindo, a fem de um dispositivo de fem é o trabalho por unidade de carga que o dispositivo realiza ao
mover a carga de seu terminal de baixo potencial para o seu terminal de alto potencial. A unidade SI para a fem
é o joule por coulomb; esta unidade é definida como sendo o volt.
Um dispositivo ideal de fem é aquele que não oferece qualquer resistência interna ao movimento da carga de
um terminal para o outro. A diferença de potencial entre os terminais de um dispositivo ideal de fem é igual à
fem do dispositivo. Por exemplo, uma bateria ideal com uma fem de 12,0 V tem uma diferença de potencial de
12,0 V entre seus terminais.
Um dispositivo real de fem, tal como uma bateria real, oferece resistência interna ao movimento da carga.
Quando um dispositivo real de fem não está ligado num circuito, e assim não há corrente através dele, a
diferença de potencial entre seus terminais é igual a sua fem. Entretanto, quando a corrente através deste
dispositivo, a diferença de potencial entre seus terminais difere de sua fem. Já discutimos as baterias reais e
suas resistências internas mais adiante apresentamos a teoria que envolve estes circuitos.

Fig. 3. Análogo gravitacional do circuito apresentado na figura 2. O trabalho realizado pela pessoa mantém um
fluxo constante de bolas de boliche através de um meio viscoso.
A Fig. 3 mostra um análogo gravitacional do circuito da Fig. 2. Na Fig. 2, o dispositivo de fem - que podemos

8
considerar uma bateria - realiza trabalho sobre os portadores de carga, diminuindo seu estoque de energia
química. Tal energia aparece como energia térmica no resistor, que esquenta enquanto a carga flui através dele.
Na Fig. 3, a pessoa, ao levantar as bolas do chão até a prateleira, realiza trabalho sobre esses "portadores de
massa". As bolas rolam lentamente ao longo da prateleira, caindo na sua extremidade direita dentro de um
cilindro cheio de óleo viscoso. Elas atingem o fundo com velocidade escalar essencialmente constante, são
retiradas por um mecanismo de alçapão, não mostrado na figura, e rolam de volta ao longo do piso para suas
posições iniciais. O trabalho realizado pela pessoa, à custa da sua energia bioquímica armazenada, aparece
como energia térmica no fluido viscoso, cuja temperatura aumenta ligeiramente.
A circulação de cargas na Fig. 2 cessará finalmente se não for reabastecido o estoque de energia química da
bateria, ou seja, se a bateria não for recarregada. A circulação das bolas no circuito da Fig. 3 também cessará se
a pessoa não reabastecer seu estoque de energia bioquímica, alimentando-se.
A Fig. 4 mostra um circuito contendo duas baterias (ideais), A e B, um resistor R e um motor elétrico (ideal) M
empregado para levantar um peso. As baterias são ligadas de modo que tendam a enviar cargas ao longo do
circuito em sentidos opostos. O sentido efetivo da corrente no circuito é determinado pela bateria de maior fem,
que é a bateria B. Uma vez que tal corrente vai do terminal positivo para o terminal negativo no interior da
bateria A, a bateria B está carregando a bateria A. A energia química de B está sendo exaurida e aparece em
três formas, mostradas na Fig. 5.

Fig. 4. de modo que a bateria B determina o sentido da enfrente neste circuito de malha única.

LEI DE OHM

A Primeira Lei de Ohm, assim designada em homenagem ao seu formulador Georg Simon Ohm, indica que a
diferença de potencial (V) entre dois pontos de um condutor é proporcional à corrente eléctrica (I) que o
percorre:

onde:
V é a diferença de potencial elétrico (ou tensão, ou "voltagem") medida em Volts
R é a resistência elétrica do circuito medida em Ohms
I é a intensidade da corrente elétrica medida em Ampères
Porém, nem sempre essa lei é válida, dependendo do material usado para fazer o resistor (ou 'resistência').
Quando essa lei é verdadeira num determinado material, o resistor em questão denomina-se resistor ôhmico ou
linear. Na prática não existe um resistor ôhmico ou linear 'exacto', mas muitos materiais (como a pasta de
carbono) permitem fabricar dispositivos aproximadamente lineares.
Um exemplo de resistor (ou resistência) não linear, que não obedece à Lei de Ohm é o díodo.
Conhecendo-se duas das grandezas envolvidas na Lei de Ohm, é fácil calcular a terceira:

A potência P, em Watts, dissipada num resistor, na presunção de que os sentidos da corrente e da tensão são
aqueles assinalados na figura, é dada por

Logo, a tensão ou a corrente podem ser calculadas a partir de uma potência conhecida:

Outras relações, envolvendo resistência e potência, são obtidas por substituição algébrica:

DIFERENÇA DE POTENCIAL

Energia potencial elétrica


Imagine dois objetos eletrizados, com cargas de mesmo sinal, inicialmente afastados. Para aproximá-los, é
necessária a ação de uma força externa, capaz de vencer a repulsão elétrica entre eles. O trabalho realizado por
esta força externa mede a energia transferida ao sistema, na forma de energia potencial de interação elétrica.

9
Eliminada a força externa, os objetos afastam-se novamente, transformando a energia potencial de interação
elétrica em energia cinética à medida que aumentam de velocidade. O aumento da energia cinética
corresponde exatamente à diminuição da energia potencial de interação elétrica.
Potencial elétrico
Com relação a um campo elétrico, interessa-nos a capacidade de realizar trabalho, associada ao campo em si,
independentemente do valor da carga q colocada num ponto desse campo. Para medir essa capacidade, utiliza-
se a grandeza potencial elétrico.
Para obter o potencial elétrico de um ponto, coloca-se nele uma carga de prova q e mede-se a energia potencial
adquirida por ela. Essa energia potencial é proporcional ao valor de q. Portanto, o quociente entre a energia
potencial e a carga é constante. Esse quociente chama-se potencial elétrico do ponto.
Diferença de potencial
A diferença de potencial entre dois pontos, em uma região sujeita a um campo elétrico, depende apenas da
posição dos pontos. Assim, podemos atribuir a cada ponto um potencial elétrico, de tal maneira que a diferença
de potencial entre eles corresponda exatamente à diferença entre seus potenciais, como o próprio nome indica.
Físicamente, é a diferença de potencial que interessa, pois corresponde ao trabalho da força elétrica por
unidade de carga.

EFEITO JOULE
Um condutor metálico, ao ser percorrido por uma corrente elétrica, se aquece. Assim, um ebulidor, um chuveiro,
um ferro elétrico, um forno elétrico etc, consistem essencialmente em uma resistência que é aquecida ao ser
percorrida por uma corrente elétrica. Este fenômeno foi estudado pelo famoso cientista James P. Joule e, em
homenagem a ele, é denominado efeito Joule.
Para um certo aparelho, a tensão é sempre a mesma durante o seu funcionamento. O chuveiro é um exemplo
disso. Mas mesmo assim, pode-se obter diferentes potências (verão e inverno) sem variarmos a tensão. Isso vai
acontecer se a corrente no resistor for diferente, já que a tensão da fonte é sempre a mesma. A relação entre a
potência, a corrente e a tensão pode ser expressa pela equação: P=i.U (Potência = corrente x tensão).
O controle do aquecimento nos chuveiros, lâmpadas e outros aparelhos resistivos é realizado através do valor
da corrente elétrica que passa no resistor. Ao dificultar a passagem da corrente no resistor (resistência maior),
diminuímos a corrente, e vice versa. Para se obter diferentes graduações no aquecimento de um certo tipo de
aparelho resistivo, o fabricante ou muda a espessura ou muda o comprimento do resistor.
Quanto calor produzirá uma corrente?
Joule mostrou que o aquecimento depende de três coisas: o quadrado da corrente, a resistência do fio e o
tempo durante o qual a corrente passa. Ele achou que uma corrente de 1 ampère passando através de uma
resistência de 1 ohm, durante 1 segundo, produz 0,24 calorias de calor (P=R.i2).

Lei de Joule
Lei de Joule (também conhecida como efeito Joule) é uma lei física que expressa a relação entre o calor gerado
e a corrente elétrica que percorre um condutor em determinado tempo. O nome é devido a James Prescott Joule
(1818-1889) que estudou o fenômeno em 1840.
Ela pode ser expressa por:

onde:
Q é o calor gerado por uma corrente constante percorrendo uma determinada resistência elétrica por
determinado tempo.
I é a corrente elétrica que percorre o condutor com determinada resistência R.
R é a resistência elétrica do condutor.
t é a duração ou espaço de tempo em que a corrente elétrica percorreu ao condutor.
Se a corrente não for constante em relação ao tempo:

Termodinâmica
Quando uma corrente eléctrica atravessa um material condutor, há produção de calor. Essa produção de calor é
devida ao trabalho realizado para transportar as cargas através do material em determinado tempo.
Unidade joule
A lei de Joule está relacionada com a definição de joule onde:
Um joule é o trabalho realizado para transportar um coulomb (unidade de medida da carga elétrica) de um
ponto para outro, estando os dois pontos a uma diferença de potencial de um volt (unidade de medida da
diferença de potencial).
O trabalho é dado por:

onde:
W é o trabalho eléctrico (em joule).
Q é a carga (em coulomb).
U é a diferença de potencial (em volt).
Teoria cinética
A nível molecular o aquecimento acontece por causa da colisão dos elétrons com os átomos do condutor, em
que momento é transferido ao átomo, aumentando a sua energia cinética (ver calor).
Potência dissipada
Nos resistores elétricos pode-se calcular a potência dissipada utilizando a lei de Joule:
10
Aplicações
Diferentes tensões no transporte da energia elétrica
É, principalmente, por causa do efeito Joule que a energia elétrica é transportada em longas distâncias em
tensões mais altas (geralmente 13.200 V) e também a tensão das zonas rurais é 220V e nas urbanas 110V. A
maior tensão permite que a corrente seja menor (para uma mesma potência , P = V.i) e assim menos energia
desperdiçada no efeito Joule (o outro motivo é o uso de cabos mais finos em secção reta com a economia do
material condutor e estrutura de sustentação).
Em aquecedores, lâmpadas e fusíveis é a lei de joule (juntamente com outras de transferência de calor) que
permite calcular as dimensões adequadas para o correto funcionamento destes dispositivos.
Por que um fio se esquenta quando é percorrido por uma corrente elétrica. O que exatamente produz este
calor? Vejamos como nossa teoria da corrente elétrica pode explicar isso.
Sabemos que a corrente elétrica é gerada por força que “puxa” os elétrons, e é essa força que fornece energia
(cinética) aos elétrons, ou seja, além do movimento original eles adquirem uma energia adicional fornecida pela
força.Quando os elétrons, agora mais velozes se chocam com os átomos do metal , tranferem a eles uma parte
desta energia, fazendo-os vibrar mais intensamente. Esse aumento das vibrações é percebido fora do fio como
um aquecimento. Quer dizer, uma parte da energia fornecida aos elétrons se transforma em calor pelo efeito
dos choques intensos entre os elétrons e os átomos.
Ao se chocar com os átomos os elétrons fazem-nos vibrar mais intensamente.
Esse efeito recebe o nome de efeito Joule e é a base do funcionamento de todos os aparelhos resistivos, como
aquecedores e chuveiros e explica o aquecimento dos fios elétricos por efeito da corrente. Uma outra parte da
energia fornecida pelo campo elétrico pode ser “perdida” se transformando em movimento (ventiladores,
furadeiras), luz (televisor), etc. Essas transformações não serão discutidas aqui com detalhes.
Quando a corrente é alternada, há momentos em que a energia fornecida aos elétrons é nula; isso ocorre no
instante em que a corrente inverte o seu sentido. Conforme a corrente aumenta, em um sentido ou outro, a
potência também aumenta e atinge o máximo junto com o máximo da corrente.
Isso significa que a potência fornecida ao aparelho (e gasta por ele) varia o tempo todo, indo de zero até um
valor máximo 120 vezes por segundo. (uma para a ida e uma para a volta)
Mas então...
Se a potência varia o tempo todo, o que significa o valor que vem registrado nos aparelhos? Na verdade, esse
valor é uma média calculada entre os valores que a potência assume durante o tempo. No liqüidificador de
300W, por exemplo, a potência varia entre zero e 600W e o valor 300W é a média dos valores da potência.

CIRCUITOS EM SÉRIE E EM PARALELO

[] NÃO ENCONTREI REFERÊNCIAS

CIRCUITOS MISTOS

[] NÃO ENCONTREI REFERÊNCIAS

ELETROMAGNETISMO

ÍMÃS NATURAIS E ARTIFICIAIS


A magnetita é o ímã que se encontra na natureza: é o ímã natural. Mas, podemos fazer com que os corpos que
normalmente não são ímãs se tornem ímãs. Os ímãs obtidos desse modo são chamados ímãs artificiais.
Chamamos corpo neutro àquele que não tem propriedade magnética: corpo imantado àquele que se tornou
ímã. Chamamos imantação ao processo pelo qual um corpo neutro se torna imantado. Teoricamente, qualquer
corpo pode se tornar um ímã. Mas a maioria dos corpos oferece uma resistência muito grande à imantação. Os
corpos que se imantam com grande facilidade são o ferro e certas ligas de ferro usadas na fabricação de ímãs
permanentes. Uma dessa ligas é o ALNICO, composta de ferro, alumínio, níquel, cobre e cobalto.
Os principais processos de imantação são:
a. Por indução magnética - É o fenômeno pelo qual uma barra de ferro se imanta quando fica próxima de um
ímã.
b. Por atrito - Quando uma barra de ferro neutra é atritada com um ímã, ela se imanta. É necessário que sejam
atritados sempre no mesmo sentido, porque o atrito num sentido desfaz a ímantação obtida no outro.
c. Por corrente elétrica - Suponhamos que um condutor seja enrolado em uma barra de ferro e percorrido por
uma corrente elétrica; a barra de ferro se torna um ímã. Como a imantação foi obtida por meio de uma corrente
elétrica, esse ímã é chamado eletroímã (fig. 223). Os eletroímãs são bastante comodos por dois motivos: 1o)
conseguimos obter eletroímãs muito mais possantes do que os ímãs naturais; 2o) podemos fazer um verdadeiro
controle do eletroímã, controlando a corrente que passa por ele; assim, aumentando a intensidade da corrente,
o eletroímã se torna mais possante; suprimindo-se a corrente, ele deixa de funcionar, etc..

MAGNETISMO - PROPRIEDADES GERAIS DOS ÍMAS


1: Ímãs - Há muito tempo se observou que certos corpos tem a propriedade de atrair o ferro. Esses corpos
foram chamados ímãs. Essa propriedade dos ímãs foi observada pela primeira vez com o tetróxido de triferro ,
numa região da Ásia, chamada Magnésia. Por causa desse fato esse minério de ferro é chamado magnetita, e os
ímãs também são chamados magnetos.

11
2: Ímãs naturais e artificiais - A magnetita é o ímã que se encontra na natureza: é o ímã natural. Chamamos
corpo neutro àquele que não tem propriedade magnética: corpo imantado àquele que se tornou ímã. Os corpos
que se imantam com grande facilidade são o ferro e certas ligas de ferro usadas na fabricação de ímãs
permanentes. Uma dessa ligas é o ALNICO, composta de ferro, alumínio, níquel, cobre e cobalto.
3: Ímãs permanentes e temporais - De acordo com a constituição química do ímã artificial, ele pode manter a
propriedade magnética por muito tempo, até por muitos anos, ou perdê-la logo depois que cesse a causa da
imantação. No primeiro caso o ímã é chamado permanente; no segundo, ímã temporal, ou transitório. Os
eletroímãs são sempre ímãs temporais. Os ímãs naturais são permanentes.
4: Regiões polares - Um ímã não apresenta propriedades magnéticas em toda a sua extensão, mas só em certas
regiões, chamadas regiões polares.
5: Atração e repulsão - Consideremos dois ímãs suspensos pelos centros de gravidade. Aproximando as suas
regiões polares de todas as maneiras possíveis, concluímos o seguinte princípio, demonstrado exclusivamente
pela experiência: “duas regiões polares de mesmo nome se repelem, e de nomes contrários se atraem”
6: Massa magnética - Assim como em Eletrostática introduzimos o conceito de carga elétrica para podermos
medir a força entre corpos eletrizados, em magnetismo introduzimos o conceito de massa magnética para que
possamos medir a força entre corpos imantados.
7: Leis de atração e repulsão entre massas magnéticas puntiformes - “A intensidade da força de atração ou
repulsão entre duas massas magnéticas puntiformes é proporcional ao produto das massas magnéticas.”

8: Fórmula de Coulomb – As duas leis podem ser expressas por uma fórmula única. Pela primeira lei, é

proporcional ao produto . Pela segunda lei, é inversamente proporcional a , isto é, diretamente

proporcional a . Logo, é proporcional ao produto .

Significa que: (constante) ou


A constante depende das unidades escolhidas e do meio em que estão colocadas as massas magnéticas. É
chamada permeabilidade magnética do meio. A força entre cargas elétricas é inversamente proporcional à
constante dielétrica; e a força entre massas magnéticas é inversamente proporcional à permeabilidade
magnética.

Levando em consideração os sinais de e , a fórmula de Coulomb passa a ser escrita, como no caso da
Eletrostática:

9: Pólo de um ímã - Já vimos que um ímã só possui propriedades magnéticas em certas regiões, que chamamos
regiões polares norte e sul, que elas possuem massas magnéticas de iguais valores absolutos. Essas regiões
polares de um ímã não são pontos, mas são superfícies.
10: Inseparabilidade dos pólos - Os polos de um ímã são inseparáveis. Se cortamos um ímã, os polos norte e sul
não ficam isolados. Na parte correspondente ao polo norte aparece um novo polo sul; e na parte
correspondente ao polo sul primitivo aparece um novo polo norte.
11: Sistemas de unidades em magnetismo e eletromagnetismo - Vimos, no tópico "Unidades de Carga Elétrica" ,
que o sistema MKS contém unidades em toda a Eletricidade, isto é, em Eletrostática, Eletrodinâmica,
Magnetismo e Eletromagnetismo. E que o sistema CGSES contém unidades só em Eletrostática e
Eletrodinâmica.
12: Momento magnético de um imã - Chama-se momento magnético do ímã ao produto do vetor pelo valor
absoluto da massa magnética de um dos polos. Pela própria definição vemos que é uma grandeza vetorial.
13: Imantação ou intensidade de imantação ou intensidade de magnetização - Chama-se imantação, ou
intensidade de imantação ou intensidade de magnetização do ímã à grandeza vetorial obtida pelo quociente do
momento magnético pelo volume do ímã.
14: Densidade magnética - Chama-se densidade magnética de uma região polar ao quociente da massa
Fator de potência
O fator de potência (FP) de um sistema elétrico qualquer, que está operando em corrente alternada (CA), é
definido pela razão da potência real ou potência ativa pela potência total ou potência aparente.

TEORIA
Ondas de tensão (V) e corrente (I) em fase. A carga possui característica resistiva (FP=1). Ângulo de fase φ=0°
Em circuitos de corrente alternada (CA) puramente resistivos, as ondas de tensão e de corrente elétrica estão
em fase, ou seja, mudando a sua polaridade no mesmo instante em cada ciclo. Quando cargas reativas estão
presentes, tais como capacitores ou condensadores e indutores, o armazenamento de energia nessas cargas
resulta em uma diferença de fase entre as ondas de tensão e corrente. Uma vez que essa energia armazenada
retorna para a fonte e não produz trabalho útil, um circuito com baixo fator de potência terá correntes elétricas
maiores para realizar o mesmo trabalho do que um circuito com alto fator de potência.
A potência ativa é a capacidade do circuito em produzir trabalho em um determinado período de tempo. Devido
aos elementos reativos da carga, a potência aparente, que é o produto da tensão pela corrente do circuito, será
igual ou maior do que a potência ativa. A potência reativa é a medida da energia armazenada que é devolvida
para a fonte durante cada ciclo de corrente alternada.
12
O fluxo de potência em circuitos de corrente alternada tem três componentes: potência ativa (P), medida em
watts (W); potência aparente (S), medida em volt-amperes (VA); e potência reativa (Q), medida em volt-
amperes reativos (VAr).
O fator de potência pode ser expresso como:

No caso de formas de onda perfeitamente senoidais, P, Q e S podem ser representados por vetores que formam
um triângulo retângulo, também conhecido como triângulo de potências, sendo que:
Triângulo retângulo que representa a relação entre as potências aparente (S), ativa (P) e reativa (Q)

Se φ é o ângulo de fase entre as de ondas de corrente e tensão, então o fator de potência é igual a , e:

Por definição, o fator de potência é um número adimensional entre 0 e 1. Quando o fator de potência é igual a
zero (0), o fluxo de energia é inteiramente reativo, e a energia armazenada é devolvida totalmente à fonte em
cada ciclo. Quando o fator de potência é 1, toda a energia fornecida pela fonte é consumida pela carga.
Normalmente o fator de potência é assinalado como atrasado ou adiantado para identificar o sinal do ângulo de
fase entre as ondas de corrente e tensão elétricas.
O fator de potência é determinado pelo tipo de carga ligada ao sistema elétrico, que pode ser:
Resistiva
Indutiva
Capacitiva
Onda de corrente (I) atrasada em relação à onda de tensão (V). A carga possui característica indutiva. FP<1
(atrasado)
Onda de corrente (I) adiantada em relação à onda de tensão (V). A carga possui característica capacitiva. FP<1
(adiantado)
Se uma carga puramente resistiva é conectada ao sistema, a corrente e a tensão mudarão de polaridade em
fase, nesse caso o fator de potência será unitário (1), e a energia elétrica flui numa mesma direção através do
sistema em cada ciclo. Cargas indutivas tais como motores e transformadores (equipamentos com bobinas)
produzem potência reativa com a onda de corrente atrasada em relação à tensão. Cargas capacitivas tais como
bancos de capacitores ou cabos elétricos enterrados produzem potência reativa com corrente adiantada em
relação à tensão. Ambos os tipos de carga absorverão energia durante parte do ciclo de corrente alternada,
apenas para devolver essa energia novamente para a fonte durante o resto do ciclo.
Por exemplo, para se obter 1 kW de potência ativa quando o fator de potência é unitário (igual a 1), 1 kVA de
potência aparente será necessariamente transferida (1 kVA = 1 kW ÷ 1). Sob baixos valores de fator de
potência, será necessária a transferência de uma maior quantidade de potência aparente para se obter a
mesma potência ativa. Para se obter 1 kW de potência ativa com fator de potência 0,2 será necessário transferir
5 kVA de potência aparente (1 kW = 5 kVA × 0,2).
Freqüentemente é possível corrigir o fator de potência para um valor próximo ao unitário. Essa prática é
conhecida como correção do fator de potência e é conseguida mediante o acoplamento de bancos de indutores
ou capacitores, com uma potência reativa Q contrário ao da carga, tentando ao máximo anular essa
componente. Por exemplo, o efeito indutivo de motores pode ser anulado com a conexão em paralelo de um
capacitor (ou banco) junto ao equipamento.
As perdas de energia aumentam com o aumento da corrente elétrica transmitida. Quando a carga tem fator de
potência menor do que 1, mais corrente é requerida para suprir a mesma quantidade de potência útil. As
concessionárias de energia estabelecem que os consumidores, especialmente os que possuem cargas maiores,
mantenham os fatores de potência de suas instalações elétricas dentro de um limite mínimo, caso contrário
serão penalizados com cobranças adicionais. Engenheiros freqüentemente analisam o fator de potência de uma
carga como um dos indicadores que afetam a eficiência da transmissão e geração de energia elétrica.

COMPONENTES NÃO-SENOIDAIS
Em circuitos que têm apenas tensão e corrente alternadas, o efeito do fator de potência cresce somente com a
diferença de fase entre ambas. Isso é conhecido como "fator de potência de deslocamento". Este conceito pode
ser generalizado para fatores de potência reais onde a potência aparente inclui componentes de distorção
harmônica. Isso possui uma importância prática em sistemas de potência que contém cargas não-lineares tais
como retificadores, algumas formas de iluminação elétrica, fornos à arco, equipamentos de solda, fontes
chaveadas, entre outros.
Um exemplo particularmente importante são os milhões de computadores pessoais que possuem fontes
chaveadas com potência variando entre 150 W a 500 W. Historicamente, essas fontes de baixo custo
incorporam um retificador simples de onda completa que conduzem apenas quando a tensão instantânea
excede a tensão no capacitor de entrada. Isso produz altos picos de corrente de entrada, que, por sua vez,
produzem distorções no fator de potência e problemas de carregamento, tanto dos condutores fase como
neutro das instalações e dos sistemas elétricos.
Um multímetro típico fará leituras incorretas de correntes que possuam componentes harmônicas. Será
necessário um multímetro que meça o valor true RMS para se medir o valor real das correntes e tensões (e a
potência aparente por conseqüência). Para medir a potência ativa ou reativa será necessário escolher
adequadamente o wattímetro, para que faça medições de correntes não-senoidais.

TRABALHO

13
Em física, trabalho (normalmente representado por W, do inglês work, ou pela letra grega tau) é uma medida da
energia transferida pela aplicação de uma força ao longo de um deslocamento.
O trabalho de uma força F pode calcular-se de forma geral através da seguinte integral de linha:

onde:
F é o vector força.
s é o vector posição ou deslocamento.
O trabalho é um número real, que pode ser positivo ou negativo. Quando a força actua na direcção do
deslocamento, o trabalho é positivo, isto, é existe energia sendo acrescentada ao corpo ou sistema. O contrário
também é verdadeiro. Uma força na direção oposta ao deslocamento retira energia do corpo ou sistema. Qual
tipo de energia, se energia cinética ou energia potencial, depende do sistema em consideração.
Como mostra a equação acima, a existência de uma força não é sinónimo de realização de trabalho. Para que
tal aconteça, é necessário que haja deslocamento do ponto de aplicação da força e que haja uma componente
não nula da força na direcção do deslocamento. É por esta razão que aparece um produto interno entre F e s.
Por exemplo, um corpo em movimento circular uniforme (velocidade angular constante) está sujeito a uma força
centrípeta. No entanto, esta força não realiza trabalho, visto que é perpendicular à trajectória.
Esta definição é válida para qualquer tipo de força independentemente da sua origem. Assim, pode tratar-se de
uma força de atrito, gravítica (gravitacional), eléctrica, magnética, etc.
Se uma força F é aplicada a um corpo que realiza um deslocamento dr, o trabalho realizado pela força é uma
grandeza escalar de valor:

Se a massa do corpo for suposta constante, e obtivermos dWtotal como o trabalho total realizado sobre o corpo
(obtido pela soma do trabalho realizado por cada uma das forças que atua sobre o mesmo), então, aplicando a
segunda lei de Newton pode-se demonstrar que:
dWtotal = dEc
onde Ec é a energia cinética. Para um ponto material, Ec é definida como:

Para objectos extensos compostos por muitos pontos, a energia cinética é a soma das energias cinéticas das
partículas que o constituem.
Um tipo particular de forças, conhecidas como forças conservativas, pode ser expresso como o gradiente de
uma função escalar, a energia potencial, V:

Se supusermos que todas as forças que atuam sobre um corpo são conservativas, e V é a energia potencial do
corpo (obtida pela soma das energias potenciais de cada ponto, devidas a cada força), então:

logo, − dV = dEc
e d(Ec + V) = 0
Este resultado é conhecido como a lei de conservação da energia, indicando que a energia total Et = Ec + V é
constante (não é função do tempo).
A unidade SI de trabalho é o joule (J), que se define como o trabalho realizado por uma força de um newton (N)
actuando ao longo de um metro (m) na direcção do deslocamento. O trabalho pode igualmente exprimir-se em
N.m, como se depreende desta definição. Estas são as unidades mais correntes, no entanto, na medida em que
o trabalho é uma forma de energia, outras unidades são por vezes empregadas.
Para o caso simples em que o corpo se desloca em movimento rectilíneo e a força é paralela à direcção do
movimento, o trabalho é dado pela fórmula:

onde F é a força e s é a distância percorrida pelo corpo. Caso a força se oponha ao movimento, o trabalho é
negativo. De forma mais geral, a força e o deslocamento podem ser tomados como grandezas vectoriais e
combinados através do produto interno:

Esta fórmula é válida para situações em que a força forma uma ângulo com a direcção do movimento, mas
pressupõe que a magnitude da força e direcção do deslocamento sejam constantes. A generalização desta
fórmula para situações em que a força e a direcção variam ao longo da trajectória (ou do tempo) pode ser feita
recorrendo ao uso de diferenciais. O trabalho infinitesimal dW realizado pela força F ao longo do deslocamento
infinitesimal ds é então dado por:

A integração de ambos os lados desta equação ao longo da trajectória resulta na equação geral inicialmente
apresentada.

CORRENTE ALTERNADA
A corrente alternada, ou CA (em inglês AC - alternating current) é uma corrente elétrica cuja magnitude e
direção da corrente varia ciclicamente, ao contrário da corrente contínua cuja direção permanece constante e
que possui pólos positivo e negativo definidos. A forma de onda usual em um circuito de potência CA é senoidal
por ser a forma de transmissão de energia mais eficiente. Entretanto, em certas aplicações, diferentes formas
de ondas são utilizadas tais como triangular ou ondas quadradas.

14
A corrente alternada surgiu quando Nikola Tesla foi contratado por J. Westinghouse para construir uma linha de
transmissão entre Niágara e Búfalo, em NY. Thomas Edison fez o possível para desacreditar Tesla, mas o
sistema polifásico de Tesla foi adotado. A Corrente Alternada é a forma mais eficaz de se transmitir uma
corrente elétrica por longas distâncias. Nela os elétrons invertem o seu sentido várias vezes por segundo.
Na primeira metade do século XX havia sistemas de Corrente Alternada de 25 Hz no Canadá (Ontário) e no
norte dos EUA. Em alguns casos alguns destes sistemas (por exemplo, nas quedas de Niágara) perduram até
hoje por conveniência das fabricas industriais que não tinham interesse em trocar o equipamento para que
operasse a 60 Hz. As baixas freqüências facilitam construção de motores de baixa rotação.
Há também sistemas de 16,67 Hz em ferrovias da Europa (Suíça e Suécia).
Sistemas AC de 400 Hz são usados na indústria têxtil, aviões, navios, espaçonaves e em grandes computadores.
No Brasil a variação (freqüência) da rede elétrica é de 60 Hz. Na América do Sul, além do Brasil, também usam
60 Hz o Equador e a Colômbia. Em outros países, por exemplo, a Argentina, a Bolívia, o Chile, o Paraguai e o
Peru, bem como na Europa é usada a freqüência de 50Hz.
A Corrente Alternada foi adotada para transmissão de energia elétrica a longas distâncias devido à facilidade
relativa que esta apresenta para ter o valor de sua tensão alterada por intermédio de transformadores. No
entanto as primeiras experiências e transmissões foram feitas com Corrente contínua (CC ou, em inglês, DC).
Correntes alternadas são usualmente associadas com tensões alternadas. Uma tensão CA senoidal v pode ser
descrita matematicamente como uma função do tempo, pela seguinte equação:

Onde A é a amplitude em volts (também chamada de tensão de pico),


ω é a freqüência angular em radianos por segundo, e
t é o tempo em segundos.
Como freqüência angular é mais interessante para matemáticos do que engenheiros, esta fórmula é
comumente reescrita assim:

Onde f é a freqüência em hertz.


O valor de pico-a-pico de uma tensão alternada é definida como a diferença entre seu pico positivo e seu pico
negativo. Desde o valor máximo de seno (x) que é +1 e o valor mínimo que é -1, uma tensão CA oscila entre +A
e −A. A tensão de pico-a-pico, escrita como VP-P, é, portanto (+A) − (−A) = 2 × A.
Geralmente a tensão CA é dada quase sempre em seu valor eficaz, que é o valor quadrático médio desse sinal
elétrico (em inglês é chamado de root mean square, ou rms), sendo escrita como Vef (ou Vrms). Para uma
tensão senoidal:

Vef é útil no cálculo da potência consumida por uma carga. Se a tensão CC de VCC transfere certa potência P
para a carga dada, então uma tensão CA de Vef irá entregar a mesma potência média P para a mesma carga se
Vef = VCC. Por este motivo, rms é o modo normal de medição de tensão em sistemas de potência.
Para ilustrar estes conceitos, considere a tensão de 220 V AC usada em alguns estados brasileiros. Ela é assim
chamada porque seu valor eficaz (rms) é, em condições normais, de 220 V. Isto quer dizer que ela tem o mesmo
efeito joule, para uma carga resistiva, que uma tensão de 220V CC. Para encontrar a tensão de pico
(amplitude), podemos modificar a equação acima para:

Para 220 V CA, a tensão de pico VP ou A é, portanto, 220 V × √2 = 311 V (aprox.). O valor de pico-a-pico VP-P
de 220V CA é ainda mais alta: 2 × 220 V × √2 = 622V (aprox.)
Note que para tensões não senoidais, temos diferentes relações entre seu pico de magnitude valor eficaz. Isso é
de fundamental importância ao se trabalhar com elementos do circuito não lineares que produzem correntes
harmônicas, como retificadores.
Movimento retilíneo
Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa
Movimento retilíneo, em Mecânica, é aquele movimento em que o corpo ou ponto material se desloca apenas
em trajetórias retas. Para tanto, ou a velocidade se mantém constante ou a variação da velocidade dá-se
somente em módulo, nunca em direção. A aceleração, se variar, também variará apenas em módulo e nunca
em direção, e deverá orientar-se sempre em paralelo com a velocidade.

TIPOS DE MOVIMENTO RETILÍNEO


Os movimentos retilíneos mais comumente estudados são o movimento retilíneo uniforme e o movimento
retilíneo uniformemente variado

MOVIMENTO RETILÍNEO UNIFORME (MRU)


No movimento retilíneo uniforme (MRU), o vetor velocidade é constante no decorrer do tempo (não varia em
módulo, sentido ou direção), e portanto a aceleração é nula. O corpo ou ponto material se desloca distâncias
iguais em intervalos de tempo iguais, vale lembrar que, uma vez que não se tem aceleração, sobre qualquer
corpo ou ponto material em MRU a resultante das forças aplicadas é nula (primeira lei de Newton - Lei da
Inércia). Uma das características dele é que sua velocidade em qualquer instante é igual à velocidade média.

MOVIMENTO RETILÍNEO UNIFORMEMENTE VARIADO (MRUV)

15
Já o movimento retilíneo uniformemente variado (MRUV), também encontrado como movimento uniformemente
variado (MUV), é aquele em que o corpo sofre aceleração constante, mudando de velocidade num dado
incremento ou decremento conhecido. Para que o movimento ainda seja retilíneo, a aceleração deve ter a
mesma direção da velocidade. Caso a aceleração tenha o mesmo sentido da velocidade, o movimento pode ser
chamado de Movimento Retilíneo Uniformemente Acelerado. Caso a aceleração tenha sentido contrário do
velocidade, o movimento pode ser chamado de Movimento Retilíneo Uniformemente Retardado.
A queda livre dos corpos, em regiões próxima à Terra, é (ignorando-se os efeitos de arrasto) um movimento
retilíneo uniformemente variado. Uma vez que nas proximidades da Terra o campo gravitacional pode ser
considerado uniforme. O movimento retilíneo pode ainda variar sem uma ordem muito clara, quando a
aceleração não for constante.
É importante salientar que no MCU (movimento circular uniforme) a força resultante não é nula. A força
centrípeta dá a aceleração necessária para que o móvel mude sua direção sem mudar o módulo de sua
velocidade. Porém, o vetor velocidade está constantemente mudando.

Lembrando que e , as equações do movimento retilíneo uniformemente variado são:


Equação horária de posição para o MRU:

, então

, temos:

Equação ou função horária de posição para o MRUV (permite determinar a posição do móvel após um intervalo

de tempo : , onde e são a posição e a velocidade do móvel no


instante inicial, respectivamente.
velocidade no MRUV após um intervalo de tempo :

velocidade no MRUV após um deslocamento qualquer (Equação de Torricelli):


OBS.: Escrita as equações desta forma, vale a pena salientar que a velocidade inicial ou a posição inicial não se
refere ao início da contagem do tempo (t0=0s) e sim à posição e à velocidade no início do intervalo de tempo
considerado.
Cinemática
Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa
A cinemática (do grego kinema, movimento) é o ramo da física que procura descrever os movimentos sem se
preocupar com as forças que originam estes movimentos. A análise desta forças é deixada para a dinâmica.
Para isso, organiza informação sobre a posição, o deslocamento, o espaço percorrido, a velocidade, a rapidez e
a aceleração dos corpos.
Definimos posição como um vetor r, com relação a uma origem fixa no espaço. Se r é uma função do tempo t,
definimos r(t), e tomamos o tempo t a partir de um instante inicial arbitrário. Então temos que forma mais
singela. Definimos primeiro o tempo inicial como t0, que é, por assim dizer, o momento em que disparamos um
cronômetro do nosso experimento; e definimos o tempo final simplesmente como t ou tfinal. Se definirmos a
posição inicial como r0, então definimos a posição final com o símbolo r ou rfinal. Agora, tendo já definidas as
quantidades fundamentais, podemos expressar as quantidades físicas em termos aproximados do seguinte
modo:
A velocidade do objeto é definida por:

Ou ainda com a expressão:

A aceleração define-se por:

MOVIMENTO PERIÓDICO
Movimento periódico é todo aquele que se repete identicamente em intervalos de tempo iguais. O intervalo de
tempo correspondente a um movimento completo é o período do movimento e o número de movimentos
completos realizados em um unidade de tempo é a freqüência. O movimento circular e uniforme (MCU) é um
movimento periódico, o mesmo vale para o movimento pendular. Por sinal, o movimento do pêndulo pode ser
aproveitado para fornecer a cadência certa para um relógio. E os ponteiros de um relógio também realizam um
movimento periódico. O ponteiro dos minutos por exemplo tem período de 1 hora, ou 60 minutos ou 3.600
16
segundos. A freqüência desse ponteiro pode ser 24 rotações por dia. O movimento de rotação da Terra ao redor
de seu próprio eixo é um movimento periódico com período de 0,99727 dia ou 23,9345 horas.

MOVIMENTO CIRCULAR
Na Mecânica clássica, movimento circular é aquele em que o objecto ou ponto material se desloca em uma
trajetória circular. Uma força centrípeta muda de direção do vector velocidade, sendo, continuamente, aplicada
para o centro do círculo. Esta força é responsável pela chamada aceleração centrípeta, orientada para o centro
da circunferência-trajectória. Pode haver ainda uma aceleração tangencial, que obviamente deve ser
compensada por um incremento na intensidade da aceleração centrípeta a fim de que não deixe de ser circular
a trajectória.
O movimento circular classifica-se, de acordo com a ausência ou a presença de aceleração tangencial, em
movimento circular uniforme (MCU) e movimento circular uniformemente variado (MCUV).
Uma vez que é preciso analisar propriedades angulares mais do que lineares, no movimento circular são
introduzidas propriedades angulares como o deslocamento angular, a velocidade angular e a aceleração
angular. No caso do MCU existe ainda o período, que é propriedade também utilizada no estudo dos
movimentos periódicos.
O deslocamento angular (indicado por ) se define de modo similar ao deslocamento linear. Porém, ao invés
de considerarmos um vector deslocamento, consideramos um ângulo de deslocamento. Há um ângulo de
referência, adotado de acordo como problema. O deslocamento angular não precisa se limitar a uma medida de
circunferência ( ); para quantificar as outras propriedades do movimento circular, será preciso muitas vezes
um dado sobre o deslocamento completo do móvel, independentemente de quantas vezes ele deu voltas em
uma circunferência. Se for expresso em radianos, temos a relação

, onde é o raio da circunferência e é o deslocamento linear.


Pegue-se a velocidade angular (indicada por ), por exemplo, que é a derivada do deslocamento angular pelo
intervalo de tempo que dura esse deslocamento:

A unidade é o radiano por segundo. Novamente há uma relação entre propriedades lineares e angulares:
, onde é a velocidade linear.
Por fim a aceleração angular (indicada por ), somente no MCUV, é definida como a derivada da velocidade
angular pelo intervalo tempo em que a velocidade varia:

A unidade é o radiano por segundo por segundo, ou radiano por segundo ao quadrado. A aceleração angular
guarda relação somente com a aceleração tangencial α e não com a aceleração centrípeta:

, onde é a aceleração tangencial.


Como fica evidente pelas conversões, esses valores angulares não são mais do que maneiras de se expressar as
propriedades lineares de forma conveniente ao movimento circular. Uma vez que a direção dos vectores
deslocamento, velocidade e aceleração modifica-se a cada instante, é mais fácil trabalhar com ângulos. Tal não
é o caso da aceleração centrípeta, que não encontra nenhum correspondente no movimento linear.
Surge a necessidade de uma força que produza essa aceleração centrípeta, força que é chamada analogamente
de força centrípeta, dirigida também ao centro da trajectória. A força centrípeta é aquela que mantém o objecto
em movimento circular, provocando a constante mudança da direcção do vector velocidade.
A aceleração centrípeta é proporcional ao quadrado da velocidade angular e ao raio da trajectória:

(A demonstração desta fórmula encontra-se no artigo aceleração centrípeta.)


A função horária de posição para movimentos circulares, e usando propriedades angulares, assume a forma:

, onde é o deslocamento angular no início do movimento.


É possível obter a velocidade angular a qualquer instante , no MCUV, a partir da fórmula:

Para o MCU define-se período T como o intervalo de tempo gasto para que o móvel complete um deslocamento
angular em volta de uma circunferência completa ( ). Também define-se frequência (indicada por f) como o
número de vezes que essa volta é completada em determinado intervalo de tempo (geralmente 1 segundo, o
que leva a definir a unidade de frequência como ciclos por segundo ou hertz). Assim, o período é o inverso da
frequência:

Por exemplo, um objecto que tenha velocidade angular de 3,14 radianos por segundo tem período
aproximadamente igual a 2 segundos, e frequência igual a 0,5 hertz.
Muitos mecanismos utilizam a transmissão de um cilindro ou anel em movimento circular uniforme para outro
cilindro ou anel. É o caso típico de engrenagens e correias acopladas a polias.
17
Nessa transmissão é mantida sempre a velocidade linear, mas nem sempre a velocidade angular. A velocidade
do elemento movido em relação ao motor cresce em proporção inversa a seu tamanho. Se os dois elementos
tiverem o mesmo diâmetro, a velocidade angular será igual; no entanto, se o elemento movido for menor que o
motor, vai ter velocidade angular maior.
Como a velocidade linear é mantida, e , então:

O movimento circular ocorre quando em diversas situações que podem ser tomadas como exemplo:
Satélites artificiais descrevem uma trajetória aproximadamente circular em volta do nosso planeta.
Uma pedra fixada a um barbante e colocada a girar por uma pessoa descreverá um movimento circular
uniforme.
Discos de vinil rodam nas vitrolas a uma frequência de 33 ou 45 rotações por minuto, em MCU.
Engrenagens de um relógio de ponteiros devem rodar em MCU com grande precisão, a fim de que não se atrase
ou adiante o horário mostrado.
Dizemos que uma partícula está em movimento circular quando sua trajetória é uma circunferência como, por
exemplo, a trajetória descrita por uma válvula do pneu de uma bicicleta em movimento igual a da imagem. Se,
além disso, o valor da velocidade permanecer constante, o movimento é denominado circular uniforme. Então,
neste movimento, o vetor velocidade tem módulo constante, mas a direção deste vetor varia continuamente.
O tempo que a partícula gasta para efetuar uma volta completa é denominada período do movimento e é
representado por T. O espaço percorrido pela partícula, durante um período, é o comprimento da circunferência
que, vale 2πR ( R é o raio da trajetória). Como o movimento é uniforme, o valor da velocidade será dado por:

logo, v = 2πR/T
Freqüência do movimento circular – suponha que observando a válvula mostrada na imagem,
verificássemos que ela efetua 30 voltas completas em um tempo igual a 10 segundos. A freqüência, F desse
movimento é, por definição, o quociente entre o número de voltas e o tempo gasto para efetua-las. Logo, a
freqüência da válvula será:

Observe que esse resultado significa que a válvula efetuou 3.0 voltas em cada 1 seg. A unidade de
freqüência,1 volta/seg, é denominada 1 hertz, em homenagem ao cientista alemão H.Hertz ( 1857 – 1894).
Portanto, podemos destacar:

O conceito de freqüência pode ser aplicada em outros tipos de movimentos, que não serão discutidos aqui.
A freqüência e o período de um movimento estão relacionados. Para relacionar F e T, basta perceber que essas
grandezas são inversamente proporcionais e, assim podeos estabelecer a seguinte proporção:
No tempo T (um período) é efetuada uma volta
Na unidade de tempo serão efetuadas F voltas ( freqüência)
Ou, esquematicamente

Portanto, a freqüência é igual ao inverso do período e reciprocamente. Por exemplo: se o período de um


movimento circular é T = 0,5 s, sua freqüência será:

Velocidade Angular – Consideremos a válvula do pneu de bicicleta em movimento circular, passando pela
posição P1 representada na figura abaixo. Após um intervalo de tempo ∆t, a válvula estará passando pela
posição P2. Neste intervalo de tempo ∆t, o raio que acompanha a válvula em seu movimento descreve um
ângulo ∆θ
A relação entre o ângulo descrito pela válvula e o intervalo de tempo gasto para descreve-lo é denominado
velocidade angular da partícula.Representando a velocidade angular por ω temos
ω = ∆θ/∆t
A velocidade definida pela relação V = ∆d/∆t, que já conhecemos, costuma ser denominada velocidade linear,
para distingui-la da velocidade angular que acabamos de definir. Observe que as definições de V e ω são
semelhantes: a velocidade linear se refere à distância percorrida na unidade de tempo, enquanto a velocidade
angular se refere ao ângulo descrito na unidade de tempo.

18
A velocidade angular nos fornece uma informação sobre a rapidez com que a válvula está girando. De fato,
quanto maior for a velocidade angular de um corpo, maior será o ângulo que ele descreve por unidade de
tempo,isto é , ele estará girando mais rapidamente.
Lembrando que os ângulos podem ser medidos em graus ou em radianos, concluímos que ω poderá ser
medida em grau/s ou em rad/s.
Uma maneira de calcular a velocidade angular é considerar a válvula ( ou uma partícula qualquer) efetuando
uma volta completa. Neste caso, o ângulo descrito será ∆θ =2πrad e o intervalo de tempo será um período,
Istoé, ∆t = T. Logo,
ω = 2π/T
Relação entre V e ω - Sabemos que, no movimento circular uniforme, a velocidade linear pode ser obtida pela
relação

Como 2π/T é a velocidade angular, concluímos que

Esta equação nos permite calcular a velocidade linear V, quando conhecemos a velocidade angular ω e o raio
R da trajetória.
Observe que ela só é válida se os ângulos estiverem medidos em radianos.
Aceleração centrípeta – No movimento circular uniforme, o módulo da velocidade da válvula permanece
constante e, então, a válvula não possui uma aceleração tangencial. Entretanto, como a direção do vetor
velocidade varia continuamente, a válvula (ou uma partícula qualquer nas mesmas condições) possui uma

aceleração centrípeta Na figura abaixo estão representados os vetores e em quatro posições

diferentes da válvula do pneu de bicicleta. Observe que o vetor tem a direção do raio e aponta sempre para
o centro da circunferência.
Podemos deduzir, matematicamente, que o valor da aceleração centrípeta no movimento circular é dado por:

Observe que o valor de é proporcional ao quadrado da velocidade e inversamente proporcional ao raio da


circunferência. Portanto, se um automóvel faz uma curva “fechada” (R pequeno) com grande velocidade, ele
terá uma grande aceleração centrípeta. Estes fatos estão relacionados com a possibilidade de o automóvel
conseguir ou não fazer a curva.
Se, em um movimento circular, conseguimos medir o ângulo e o tempo, poderemos calcular a velocidade
angular do movimento. Através deste cálculo poderemos resolver inúmeros problemas. Com o auxílio do
programa de computador foi possível realizar os cálculos com bastante precisão.

DIAGRAMAS OU LINHAS DE ESTADO


São o estudo gráfico dos esforços simples. Esses gráficos retratam os valores dos esforços simples ao longo da
estrutura, permitindo a visualização das variações desses esforços de uma seção para outra.
Diagrama de Força Normal: retrata os esforços nomais (tração e compressão) ao longo da estrutura.
Diagrama de Força Cortante: retrata os esforços cortantes (cisalhamento) ao longo da estrutura.
Diagrama de Momento: retrata os esforços de flexão ao longo da estrutura.
Linha de Influência: retrata os esforços de uma seção da estrutura, em relação a variação de uma força na
estrutura.

LEIS DE NEWTON
Leis de Newton, em latim, na edição original, de 1687. As leis de Newton são as leis que modelam o
comportamento de corpos em movimento, criadas por Isaac Newton.
Isaac Newton publicou essas leis em 1687, no seu trabalho de três volumes intitulado Philosophiae Naturalis
Principia Mathematica. As leis explicavam vários dos resultados observados quanto ao movimento de objetos
físicos.
Newton também demonstrou em seu trabalho como as três leis, combinadas com a sua lei da gravitação
universal, conseguiam explicar as consagradas Leis de Kepler sobre o movimento planetário. Essa
demonstração foi a maior evidência a favor de sua teoria.
Lex I: Corpus omne perseverare in statu suo quiescendi vel movendi uniformiter in directum, nisi quatenus a
viribus impressis cogitur statum illum mutare.
(Todo corpo continua em seu estado de repouso ou de movimento uniforme em uma linha reta, a menos que
seja forçado a mudar aquele estado por forças imprimidas sobre ele.)
Lex II: Mutationem motis proportionalem esse vi motrici impressae, etfieri secundum lineam rectam qua vis illa
imprimitur.
(A mudança de movimento é proporcional à força motora imprimida, e é produzida na direção da linha reta na
qual aquela força é imprimida.)

19
Lex III Actioni contrariam semper et aequalem esse reactionem: sine corporum duorum actiones in se mutuo
semper esse aequales et in partes contrarias dirigi. (A toda ação há sempre oposta uma reação igual, ou, as
ações mútuas de dois corpos um sobre o outro são sempre iguais e dirigidas a partes opostas.)

PRIMEIRA LEI DE NEWTON


Um corpo que está em movimento, tende a continuar em seu estado de movimento em linha reta e velocidade
constante. E um corpo que está em repouso tende a continuar em repouso.
Primeira Lei de Newton ou Princípio da Inércia A partir das ideias de inércia de Galileu, Isaac Newton enunciou
sua Primeira Lei com as palavras:
"Todo corpo permanece em seu estado de repouso ou de movimento uniforme em linha reta, a menos que seja
obrigado a mudar seu estado por forças impressas a ele."
A primeira lei de Newton pode parecer perda de tempo, uma vez que esse enunciado pode ser deduzido da
Segunda Lei:

Se , existem duas opções: Ou a massa do corpo é zero ou sua aceleração. Obviamente como o corpo
existe, ele tem massa, logo sua aceleração é que é zero, e consequentemente, sua velocidade é constante.
No entanto, o verdadeiro potencial da primeira lei aparece quando se envolve o problema dos referenciais.
Numa reformulação mais precisa:
"Se um corpo está em equilíbrio, isto é, a resultante das forças que agem sobre ele é nula, é possível encontrar
ao menos um referencial, denominado inercial, para o qual este corpo está em repouso ou em movimento
retilíneo uniforme."
Essa reformulação melhora muito a utilidade da primeira lei de Newton. Para exemplificar tomemos um carro.
Enquanto o carro faz uma curva, os passageiros têm a impressão de estarem sendo "jogados" para fora da
curva. É o que chamamos de força centrífuga. Se os passageiros possuírem algum conhecimento de Física
tentarão explicar o fenomeno com uma força. No entanto, se pararem para refletir, verão que tal força é muito
suspeita. Primeiro: ela produz acelerações iguais em corpos de massas diferentes. Segundo: não existe lugar
nenhum onde a reação dessa força esteja aplicada, contrariando a 3ª Lei de Newton. Como explicar a misteriosa
força?
O erro dos passageiros foi simples. Eles não escolheram um referencial inercial. Logo, obviamente as leis de
Newton falhariam, pois estas só valem nestes referenciais. Se um referencial inercial fosse escolhido, como um
observador do lado de fora do carro, nada de anormal seria visto, apenas os passageiros tentando manter sua
trajetória em linha reta e o carro forçando-os a virar. Quem estava sob ação de forças era o carro.
Muitos outros exemplos existem de forças misteriosas que ocorrem por tomarmos referenciais não-inerciais,
podemos citar, além da força centrífuga, as forças denominadas de Einstein, e a força de Coriolis.
Então é importante lembrar: A principal utilidade da primeira lei de Newton é estabelecer um referencial com o
qual possamos trabalhar.
Princípio da física (dinâmica) enunciado pela primeira vez por Galileu Galilei e desenvolvido mais tarde por Isaac
Newton, que descreve o movimento dos corpos desprezando o efeito do atrito. Pode ser formulado da seguinte
forma:
Se um corpo se deslocar em linha reta com uma certa velocidade, continuará indefinidamente em movimento
na mesma direção e com a mesma velocidade se nenhuma força agir sobre ele.
A grande novidade deste princípio foi reconhecer pela primeira vez que o atrito é uma força a que todos os
corpos estão sujeitos, exceto se, se deslocam no vácuo, contrariando frontalmente as teorias de Aristóteles.
O principio da inércia explica o que acontece para que os copos e pratos sobre uma toalha possam continuar
sobre a mesa se a toalha for puxada abruptamente. Entendemos que os pratos copos e talheres estejam em
repouso sobre a mesa, estes vão permanecer eternamente em repouso até que algo aconteça para movê-los de
lá. Com o puxão da toalha de maneira correta, não se consegue imprimir força suficiente para que os corpos
entrem em movimento, então eles permanecem em seus lugares. O mesmo efeito pode ser observado quando
estamos em pé dentro de um transporte coletivo (comboio, metrô ou autocarro) e este começa a se mover.
Nosso corpo tende a "ir para trás" em relação ao autocarro, mas em relação ao chão, nosso corpo simplesmente
tentará permanecer parado.
O princípio da inércia nasceu em experiências com bolas metálicas descendo por um plano inclinado, passando
depois por uma superfície horizontal e finalmente subindo um outro plano inclinado. Ao diminuir a inclinação
deste último, sucessivamente, Galileu notou que a esfera percorria distâncias cada vez maiores, atingindo
quase a mesma altura. Inferiu então que, na ausência de atrito, se a inclinação do último plano fosse nula, ou
seja, ele fosse horizontal, a esfera rolaria infinitamente. Dessa forma Galileu mostrou a necessidade de se ir
além da experiência, para buscar as leis mais gerais do movimento.

SEGUNDA LEI DE NEWTON


(Lei Fundamental do Movimento) De acordo com o princípio da inércia, se a resultante das forças actuantes num
corpo for nula, o corpo mantém, por inércia, a sua velocidade constante, ou seja não sofre aceleração. Logo a
força consiste num agente físico capaz de produzir aceleração, alterando o estado de repouso ou de movimento
dos corpos.
Quando uma força resultante actua sobre uma partícula, esta adquire uma aceleração na mesma direcção e
sentido da força, segundo um referencial inercial. A relação, neste caso, entre a causa (força resultante) e o
efeito (aceleração) constitui o objectivo principal da Segunda Lei de Newton, cujo enunciado pode ser
simplificado assim:
"A resultante das forças que agem num corpo é igual a taxa de variação do momento linear (quantidade de
movimento) do mesmo."

20
Matematicamente, a definição de força é expressada da seguinte forma:

Quando a massa do corpo é constante temos e por conseguinte


Isso significa que, sendo a massa do corpo constante, a força resultante e aceleração produzida possuem
intensidades directamente proporcionais.
Resumindo: O segundo princípio consiste em que todo corpo em repouso precisa de uma força para se
movimentar e todo corpo em movimento precisa de uma força para parar. O corpo adquire a velocidade e
sentido de acordo com a força aplicada. Ou seja, quanto mais intensa for a força resultante, maior será a
aceleração adquirida pelo corpo.
A força resultante aplicada a um corpo é directamente proporcional ao produto entre a sua massa inercial e a

aceleração adquirida pelo mesmo .


Se a força resultante for nula ( F = 0 ) o corpo estará em repouso (equilíbrio estático) ou em movimento
rectilíneo uniforme (equilíbrio dinâmico). A força poderá ser medida em Newton se a massa for medida em kg e
a aceleração em m/s² pelo Sistema Internacional de Unidades de medidas ( S.I ).

TERCEIRA LEI DE NEWTON


A Terceira Lei de Newton também é conhecida como Lei da Ação e Reação. Se um corpo A aplicar uma força
sobre um corpo B, receberá deste uma força de mesma intensidade, mesma direção e sentido oposto à força
que A aplicou em B. As forças de ação e reação têm as seguintes características:
estão associadas a uma unica interação, ou seja, correspondem às forças trocadas entre apenas dois corpos;
têm sempre a mesma natureza (ambas de contato ou ambas de campo), logo, possuem o mesmo nome ("de
contato" ou "de campo");
É indiferente atribuir a ação a cada uma das forças e a reação à outra. Estas forças são caracterizadas por
terem:
Sentidos diferentes
Direções iguais
Intensidade igual
aplicadas em corpos diferentes, logo não se anulam
"Para cada ação há sempre uma reação oposta e de igual intensidade."

O CONCEITO DE FORÇA
Sabemos que a que a Mecânica é, fundamentalmente, o estudo de dois problemas básicos para a quase
totalidade dos demais ramos da Física, tais problemas sendo, precisamente, os seguintes:
1) conhecendo-se o movimento de uma dada partícula, caracterizar as forças que atuam sobre ela;
2) conhecendo-se as forças que atuam sobre uma dada partícula, caracterizar o seu movimento.
Ainda mais esquematicamente podemos dizer que a Mecânica é o ramo da Física onde são estudadas as
relações porventura existentes entre forças e movimentos. Ora, de acordo com o que sabemos em Cinemática é
possível caracterizar o movimento de uma partícula se conhecermos, para cada instante t, ou a posição, ou a
velocidade, ou a aceleração, da partícula considerada. Portanto, o problema de relacionar movimentos e forças
ficará resolvido se conseguirmos descobrir quais as relações existentes entre posição e força, ou entre
velocidade e força, ou entre aceleração e força, ou então se conseguirmos provar que não existe relação
alguma entre movimentos e forças. Não se conseguiu até hoje deduzir quais as relações existentes entre
movimentos e forças, nem também provar que tais relações não existem. A solução do problema foi encontrada
experimentalmente por Galileo, o qual descobriu que aceleração é função de força, enquanto que nem posição
nem velocidade o são. (Foi o próprio Galileo, aliás, quem criou o conceito de aceleração).
Mais adiante apresentaremos situações muito simples que nos permitirão ver
O conceito cientifico de força foi introduzido nos quadros do pensamento humano por Johannes Kepler (1571
-1630), o astrônomo alemão que se tornou famoso principalmente por ter descoberto as leis do movimento dos
planetas em torno
do Sol. O conceito dominante de força, antes de Kepler, era o dos aristotélicos: força podendo ser apenas
empurrão ou puxão. O conceito de força que vamos apresentar a seguir, e que adotamos por julgar o mais
conveniente para as nossas finalidades, é o conceito clássico, construído por Galileo e Newton.
Imagine que o piso de uma certa sala seja plano e horizontal e que sobre ele exista uma camada de areja, de
espessura uniforme. Se jogarmos, sobre um tal piso, uma bola de bilhar, imprimindo-lhe uma certa velocidade
inicial, observaremos que ela rolará, com movimento retilíneo, percorrendo uma certa distância ao cabo da qual
parará. Imagine, a seguir, que a areia seja retirada do piso da sala. Se jogarmos sobre ele a mesma bola,
imprimindo-lhe a mesma velocidade inicial do caso anterior,
observaremos que ela ainda parará, mas que percorrerá uma distância maior do que quando o piso estava
coberto de areia. Se polirmos o piso da sala e retirarmos o ar ambiente, e se jogarmos a mesma bola,
imprimindo-lhe velocidades iniciais iguais às dos casos anteriores, observaremos que ela alcançará distâncias
tanto, maiores quanto menos áspero estiver o piso e quanto menos imperfeito for o vácuo obtido. Admitimos
então, por extrapolação, que se fosse possível obter um piso plano e horizontal, perfeitamente polido e situado
numa região onde o vácuo fosse perfeito, se lançássemos uma bola de bilhar sobre ele, ela ficaria se movendo
indefinidamente, com movimente retilíneo e uniforme, pois que não existiria coisa alguma que
pudéssemos responsabilizar por variações na sua velocidade.
Imagine uma bola de bilhar rolando sobre o piso de uma certa sala, plano e horizontal. Acreditamos não ser
possível a bola "resolver", num determinado instante, fazer uma curva para a esquerda, ou para a direita, ou
aumentar a sua velocidade, ou
21
parar num certo ponto e começar a pular, etc, isto é, acreditamos que a velocidade da bola só poderá ser
alterada se alguma coisa agir sobre ela. Essa alguma coisa capaz de alterar a velocidade da bola é
precisamente o ente ao qual Newton chamou força, e a Incapacidade da bola alterar a sua própria velocidade é
uma propriedade multo importante e que é chamada inércia. Todos os sistemas materiais conhecidos possuem
inércia.

A DEFINIÇÃO DE FORÇA
As situações apresentadas acima são, em traços gerais, as que foram imaginadas por Galileo e sobre as quais
Newton se apoiou para definir o ente que chamamos força. Elas fundamentam, essencialmente, a nossa crença
de que:
1) se um corpo estiver em repouso, para pô-lo em movimento é necessário fazer agir alguma coisa sobre ele;
2) se a velocidade de um corpo aumenta, é porque alguma coisa' age sobre ele;
3) se a velocidade de um corpo diminui, é porque alguma coisa age sobre ele;
4) se a velocidade de um corpo muda de direção, é porque alguma coisa age sobre ele.
A essa alguma coisa capaz de pôr em movimento um corpo que está.em repouso, ou capaz de modificar 'de
alguma forma a sua velocidade, é que Newton denominou força, sendo a seguinte a definição por ele
apresentada:
Chama-se força atuante sobre um corpo a qualquer agente capaz de modificar o seu estado de repouso ou de
movimento retilíneo e uniforme.
Analisando esta definição de força observamos essencialmente o seguinte:
constatado, de alguma forma, que os diversos corpos que integram o nosso Universo não estão sempre em
repouso, ou sempre em movimento retilíneo e uniforme; mas sim que as suas velocidades sofrem, ou podem
sofrer, alterações, achou-se
conveniente pensar que as variações de velocidade de um corpo qualquer são conseqüência da ação de algum
ente. Introduziu-se, portanto, no quadro dos elementos por meio dos quais estudamos os fenômenos
observáveis no nosso Universo, uma entidade considerada responsável por variações de velocidades. Tal
entidade foi denominada força. 0 peso de um corpo, por exemplo, é uma força; quando queremos abrir ou
fechar uma porta, aplicamos-lhe uma força, etc. É extremamente importante observar que repouso e
movimento são sempre relativo a um bem determinado referencial. Conseqüentemente podemos dizer que as
forças atuantes sobre um corpo dependem estreitamente do referencial que se considere.
Esta observação é fundamental para a compreensão da Mecânica, e muitas discussões estéreis serão evitadas
se procedermos corretamente, especificando, sem ambigüidade, qual o referencial que está sendo utilizado. (É
muito importante
discutirmos o problema fundamental do referencial).
É importante chamar a atenção para o fato experimental de que uma força só ficará completamente
caracterizada se conhecermos não só o seu valor numérico, isto é, o seu módulo, mas também a sua direção e
o seu sentido. Conseqüentemente uma força pode ser adequadamente representada por um segmento de reta
orientado, se tal segmento for traçado de uma forma tal que:
1) o seu comprimento indique, numa escala previamente convencionada, o módulo da força;
2) a direção e o sentido do segmento Indiquem a direção e o sentido da força. Diz ainda a experiência que
forças se somam de acordo com a regra do polígono.
Conseqüentemente força é vetor.
Velocidade não é função de força
Julgamos conveniente, antes de avançar mais, mostrar, de forma simples, que a velocidade de um corpo, num
instante qualquer, não depende das forças que no instante considerado estejam agindo sobre ele, ou seja: que
a velocidade de um corpo
não é função das forças que atuam sobre ele.
Imaginemos, para isto, que de um certo ponto, A, situado verticalmente acima de um outro, B, se deixe cair
uma pedra. Quando ela passar pelo ponto B a sua velocidade terá um certo valor v. A seguir deixemos cair a
mesma pedra, de um outro
ponto, A', situado verticalmente acima do A. Quando ela passar pelo ponto B a sua velocidade terá um valor
v'>v, Isto é, um valor diferente de v. Ora, em ambos os casos, quando a pedra passa pelo ponto B a única força
atuante sobre ela é o seu
próprio peso (estamos supondo desprezíveis a resistência e o empuxo exercidos pelo ar), o qual é o mesmo nas
duas situações, uma vez que em cada ponto é invariável o peso de um mesmo corpo. Se velocidade fosse
função de força, deveríamos ter que
qualquer que fosse a altura de onde largássemos a pedra ela passaria pelo ponto B sempre com uma mesma
velocidade, pois que a uma mesma força, agindo sobre um mesmo corpo, deveria -corresponder uma mesma
velocidade. Como Isto não ocorre,
concluímos, definitivamente, que velocidade não é função de força.
Uma pedra largada de um ponto A terá uma velocidade igual a v no momento em que passar pelo ponta B. A
mesma pedra sendo largada de um outro ponto, A', situado verticalmente acima do ponto A, ao passar pelo
ponto B terá
uma velocidade v'>v. Ora, em ambos os casos a força atuante sobre a pedra, no momento da passagem pelo
ponto B, é apenas o seu próprio peso (supondo-se desprezíveis a empuxo e a resistência exercidos pelo ar).
Este exemplo nos mostra que á mesma força, agindo sobre o mesmo corpo, não corresponde uma só
velocidade, ou
sela: que a velocidade de um corpo não é função das forças atuantes sobre ele. (A nosso ver, a principal fonte
das
dificuldades que o principiante encontra em Mecânica tem a sua origem precisamente no desacordo entre a
intuição, que
22
o faz pensar ser velocidade função de força, e o fato experimental de que velocidade não é função de força).

MOMENTO DE UMA FORÇA Arquimedes (287 - 212 a.C.)


Se um corpo suspenso por um fio for afastado de sua posição de equilíbrio e depois abandonado a si mesmo,
seu peso provocará uma rotação no sentido de fazer o corpo voltar à posição de equilíbrio.
Quando estamos apertando ou desapertando um parafuso, conseguimos produzir uma rotação, aplicando uma
força ao cabo de uma chave.
Batendo com o dedo na extremidade de uma das pás de um ventilador desligado consegue-se faze-la girar
rapidamente.
Verifica-se assim que uma força, atuando sobre um corpo que tenha a possibilidade de girar em torno de um
ponto fixo, pode produzir rotação. A medida da eficiência de uma força no que se refere à tendência de fazer um
corpo girar em relação a um ponto fixo chama-se momento da força em relação a esse ponto.
O momento depende somente da intensidade da força e do seu braço de alavanca. Obtém-se o momento de
uma força em relação a um ponto multiplicando-se a intensidade da força pela distância do ponto à linha de
ação da força.
O conceito de momento (ou torque) é usado, mesmo intuitivamente, com grande freqüência em nossa vida
diária. É o caso, por exemplo, de uma pessoa que fecha uma porta aplicando a força no meio da porta; obterá
um efeito de rotação maior se aplicar a mesma força na extremidade da porta. Nessa última situação, a
distância da força ao eixo de rotação é maior e, portanto, maior será o momento dessa força, isto é, maior será
o efeito de rotação que ela produz.

HIDROSTÁTICA: Pressão
Consideremos uma força aplicada perpendicularmente a uma superfície com área A. Definimos a pressão
(p) aplicada pela força sobre a área pela seguinte relação:

No SI , a unidade de pressão é o pascal (Pa) que corresponde a N/m2 . A seguir apresenta outras unidades de
pressão e suas relações com a unidade do SI :
1 dyn/cm2 (bária) = 0,1 Pa
1 kgf/cm2 = 1 Pa
1 atm = 1,1013x105 Pa
1 lb/pol2 = 6,9x103 Pa
O conceito de pressão nos permite entender muitos dos fenômenos físicos que nos rodeiam. Por exemplo, para
cortar um pedaço de pão, utilizamos o lado afiado da faca (menor área), pois, para uma mesma força, quanto
menor a área, maior a pressão produzida.

Princípio de Arquimedes
Origem: Wikipédia, a enciclopédia livre.
"Todo corpo mergulhado num fluido em repouso sofre, por parte do fluido, uma força vertical para cima, cuja
intensidade é igual ao peso do fluido deslocado pelo corpo."
Contam os livros que o sábio grego Arquimedes descobriu enquanto tomava banho, que um corpo imerso na
água se torna mais leve devido a uma força, exercida pelo líquido sobre o corpo, vertical e para cima, que alivia
o peso do corpo. Essa força do líquido sobre o corpo, é denominada impulsão.
Portanto, num corpo que se encontra imerso em um líquido em repouso, actuam duas forças, ambas com
mesmo centro de acção:
peso (devida à interação com o campo gravitacional terrestre)
impulsão (devida a sua interação com o líquido)
Isto quer dizer que, para o objeto flutuar, o peso do líquido deslocado pelo objeto tem de ser maior que o
próprio peso do objeto.
Arquimedes teria descoberto isso quando procurava responder a Hierão, rei de Siracusa, se sua coroa era
realmente de ouro puro.
Conta Vitrúvio, que o rei mandou fazer uma coroa de ouro. Para isso, contratou um artesão, que consoante uma
boa quantia de dinheiro e a entrega do ouro necessário, aceitou o trabalho.
Na data prevista o artesão entregou a coroa executada na perfeição, porém, o rei estava desconfiado que o
artesão pudesse ter trocado o ouro por prata, pediu a Arquimedes que investigasse o que se passava uma vez
que este era muito inteligente.
23
Um dia, enquanto tomava banho, Arquimedes observou que, à medida que seu corpo mergulhava na banheira,
a água transbordava. Concluiu, então, como poderia resolver o problema da coroa e de tão contente que estava
saiu da banheira e foi para a rua gritando: "EURECA, EURECA!", que em grego quer dizer descobri, achei,
encontrei.
Assim, pegou um vasilhame com água e mergulhou um pedaço de ouro, do mesmo peso da coroa, registou
quanto a água tinha subido. Fez o mesmo com um pedaço de prata e também registou. Pode comprovar que o
ouro não fez a água subir tanto como a prata.
Por fim inseriu a coroa que por sua vez elevou o nível da água acima do que havia observado no ouro e abaixo
da prata, constatando então que a coroa havia sido feito com uma mistura de ouro e prata. Pode-se assim
desvendar o mistério da coroa e desmascarar o artesão.

O Princípio de Arquimedes
Quando um corpo está totalmente imerso num líquido, podemos ter as seguintes condições:
se ele permanece parado no ponto em que foi colocado, a intensidade da força de impulsão é igual a
intensidade da força peso;
se ele afundar, a intensidade da força de impulsão é menor que a intensidade da força peso;
se ele for levado para a superfície, a intensidade da força de impulsão é maior do que a intensidade da força
peso.
Para saber qual das três situações irá ocorrer, devemos enunciar o princípio de Arquimedes:
"Todo corpo mergulhado num fluido sofre, por parte do fluido, uma força vertical para cima, cuja intensidade é
igual ao peso do fluido deslocado pelo corpo."
Se denotarmos por:
m a massa do corpo imerso,
V o volume do corpo imerso,
ρ a densidade ou massa específica do fluido,
g a aceleração da gravidade,
I a força de impulsão.
O princípio de Arquimedes se resume a:

Como a força peso do corpo é dada pela produto da massa pela aceleração da gravidade mg. Podemos enunciar
o seguinte critério:
Vρ < m O corpo afunda,
Vρ = m o corpo fica em equilíbrio metaestável,
Vρ > m o corpo sobe à tona.
Quando um corpo mais denso que um líquido é totalmente imerso nesse líquido, observamos que o valor do seu
peso, dentro desse líquido, é aparentemente menor que no ar. A diferença entre o valor do peso real e do peso
aparente corresponde à impulsão exercida pelo líquido:
Peso Aparente = Peso real - Impulsão
Se a massa do corpo imerso for expressa como o produto de sua densidade média ρcpor seu volume V, então o
critério de Arquimedes assume a seguinte forma:
ρ < ρc O corpo afunda,
ρ = ρc o corpo fica em equilíbrio metaestável,
ρ > ρc o corpo sobe à tona.
Flutuação de corpos
Quando um corpo é composto de material menos denso que o fluido onde está imerso, pode encontrar uma
posição de equilíbrio flutuando na superfície. Este é o caso dos icebergs que ficam estáveis flutuando na água
quando a porção de volume imersa gera impuxo suficiente para sustentar seu peso. Ou seja, denotando por Vi o
volume imerso do iceberg, VT, seu volume total e ρg a densidade do gelo, a condição de equilíbrio se torna:

Resolvendo para Vi,


Assim, obtemos que o volume imerso de um iceberg equivale a 92% de seu volume total, ficando apenas 8%
visível fora d'água, dando origem à expressão "a ponta do iceberg".

PRINCÍPIO DE PASCAL
O princípio de Pascal diz que quando um ponto de um líquido em equilíbrio sofre uma variação de pressão,
todos os outros pontos também sofrem a mesma variação.
Uma aplicação importante desse princípio é a prensa hidráulica, que consiste em dois vasos comunicantes, com
êmbolos de áreas diferentes (A 1 e A 2 ) sobre as superfícies livres do líquido contido nos vasos. Aplicando-se
uma força F 1 sobre o êmbolo de área A 1 , a pressão exercida é propagada pelo líquido até o êmbolo de área A
2 . Portanto teremos que:

A prensa hidráulica é um dispositivo que multiplica a intensidade de forças.


24
obs. Apesar da verificação do aumento ou da diminuição na intensidade de forças, a prensa hidráulica não pode
modificar a quantidade de energia envolvida, pois deve obedecer ao princípio da conservação de energia.
O Princípio de Pascal é um princípio físico que se aplica entre outros ao sistema de travões e amortecedores e
aos elevadores hidráulicos e deve-se ao físico e matemático francês Blaise Pascal (1623-1662). Seu enunciado
é:
O acréscimo de pressão produzido num líquido em equilíbrio transmite-se integralmente a todos os pontos do
líquido e às paredes do recipiente.

GRAVITAÇÃO UNIVERSAL
1 Introdução: Até o século XV, o homem concebia o Universo como um conjunto de esferas de cristal, com a
Terra no centro. Essa concepção do Universo, denominada Geocentrismo, dominou toda a Antigüidade e Idade
Média. Foi derrubada por pensadores como Nicolau Copérnico (1473 - 1543) e Galileu Galilei (1564 - 1642), que
mostraram que nosso planeta gira em torno do Sol.

2- Leis de Kepler: As leis de Kepler descrevem o movimento dos planetas ao redor do Sol.
Primeira lei de Kepler
O raio - vetor - linha imaginária que une o Sol ao planeta, varre áreas iguais em intervalos de tempos iguais.
a = Raio médio da órbita
Periélio = ponto mais próximo do Sol.
Afélio = ponto mais afastado do Sol.

Segunda lei de Kepler


O raio-vetor varre a mesma área no mesmo intervalo de tempo, porque nos pontos mais próximos do Sol o
planeta se move mais rapidamente e, nos pontos mais afastados, mais lentamente. A velocidade dos planetas é
máxima no periélio e mínima no afélio.
Obs. A razão entre a área varrida pelo raio-vetor e o tempo, é denominada de velocidade areolar. Cada planeta
tem sua velocidade areolar bem definida. Esta velocidade areolar é constante para um determinado planeta, ou
satélite. Observe também que do periélio para o afélio o planeta terá um movimento retardado e do afélio para
o periélio o movimento é acelerado.

Terceira lei de Kepler


O quadrado do período de qualquer planeta é proporcional ao cubo de sua distância média ao Sol.

Matematicamente temos: T 2 = k . a 3 onde:


Curiosidade: O valor de k para o sistema sola é k = 3.10 -19 s² /m³
A tabela a seguir mostra os valores das distâncias médias ao Sol de cada um dos planetas do sistema solar e os
seus respectivos períodos. A unidade de medida das distâncias é a distância média da Terra ao Sol (1,49 . 10 8
km ), chamada unidade astronômica (u.a). A unidade de medida dos períodos é o ano terrestre.
PLANETA DISTÂNCIA MÉDIA AO SOL (u.a.) Período (ano terrestre)
Mercúrio 0,387 0,241
Vênus 0,713 0,615
Terra 1 1
Marte 1,524 1,881
Júpiter 5,203 11,86
Saturno 9,540 29,46
25
Urano 19,18 84,01
Netuno 30,07 164,8
Plutão 39,44 248,4

3 - LEI DA GRAVITAÇÃO UNIVERSAL


A lei da gravitação, estabelecida por Newton, tem o seguinte enunciado:
Entre dois pontos materiais de massas m1 e m2, separados pela distância r, existe uma força de atração F,
proporcional às massas m1 e m2 e inversamente proporcional ao quadrado da distância r.
Matematicamente, a lei da gravitação universal pode ser escrita da seguinte forma:

onde a constante G é denominada constante universal da gravitação e vale, em unidades do SI: G = 6,7 . 10 -11
N.m 2 /kg 2
Gravidade
A gravidade é a força de atração mútua que os corpos materiais exercem uns sobre os outros. Classicamente, é
descrita pela lei de Newton da gravitação universal. Mais recentemente, Albert Einstein descreveu-a como
conseqüência da estrutura geométrica do espaço-tempo.
Do ponto de vista prático, a atração gravitacional da Terra confere peso aos objetos e faz com que caiam ao
chão quando são soltos no ar (como a atração é mútua, a Terra também se move em direção aos objetos, mas
apenas por uma ínfima fração). Ademais, a gravitação é o motivo pelo qual a Terra, o Sol e outros corpos
celestiais existem: sem ela, a matéria não se teria aglutinado para formar aqueles corpos e a vida como a
entendemos não teria surgido. A gravidade também é responsável por manter a Terra e os outros planetas em
suas respectivas órbitas em torno do Sol e a Lua em órbita em volta da Terra, bem como pela formação das
marés e por muitos outros fenômenos naturais.
Em sentido não-científico, "gravidade" significa seriedade ou austeridade.
Depois que a anedótica maçã caiu ao lado do jovem Isaac Newton, levando-o a formular a Lei da Gravitação
Universal, este descobrimento alterou radicalmente a concepção humana do universo e a palavra "gravidade",
cuja origem remonta a tempos pré-históricos, adquiriu nova importância.
"Gravidade" provém do latim ´gravitas´, formado a partir do adjetivo ´gravis´ (pesado, importante). Ambos os
vocábulos trazem a raiz ´gru-´, do antigo tronco pré-histórico indo-europeu, de onde se deriva também a voz
grega ´barus´ (pesado) que, entre outros vocábulos, deu lugar a barítono (de voz grave). Em sânscrito – a
milenária língua sagrada dos brâmanes – formou-se a palavra guru (grave, solene), também a partir da raiz
indo-européia ´gru-´, para designar os respeitados mestres espirituais e chefes religiosos do hinduismo.
Gravitação
Gravitação é a força de atração que existe entre todas as partículas com massa no universo.
A gravitação é responsável por prender objectos à superfície de planetas e, de acordo com as lei da inércia de
Newton, é responsável por manter objectos em órbita em torno uns dos outros.
"A gravidade é a força que nos puxa para baixo" – Merlin, no filme da Disney A Espada Era A Lei(filme)
Merlin tinha razão, claro, mas a gravidade faz muito mais do que simplesmente segurar-nos às nossas cadeiras.
Foi Isaac Newton que o reconheceu. Newton escreveu numa das suas memórias que na altura em que estava a
tentar compreender o que mantinha a Lua no céu viu uma maçã cair no seu pomar, e compreendeu que a Lua
não estava suspensa no céu mas sim que caía continuamente, como se fosse uma bola de canhão que fosse
disparada com tanta velocidade que nunca atinge o chão por este também "cair" devido à curvatura da Terra.
Se quisermos ser precisos, devemos distinguir entre a gravitação, que é a força de atracção universal, e a
gravidade, que é a resultante, à superfície da Terra, da atracção da massa da Terra e da pseudo-força centrífuga
causada pela rotação do planeta. Nas discussões casuais, gravidade e gravitação usam-se como sinónimos.
Segundo a terceira lei de Newton, quaisquer dois objectos exercem uma atracção gravitacional um sobre o
outro de igual valor e direcção oposta.

Lei de Newton de Gravitação Universal


Pouco se sabia sobre gravitação até o século XVII, pois acreditava-se que leis diferentes governavam os céus e
a Terra. A força que mantinha a Lua presa à Terra nada tinha que ver com a força que nos mantém presos a
esta. Sir Isaac Newton foi o primeiro a pensar na hipótese das duas forças possuírem as mesmas naturezas.
Newton explica, "Todos os objectos no Universo atraem todos os outros objectos com uma força direccionada ao
longo da linha que passa pelos centros dos dois objectos, e que é proporcional ao produto das suas massas e
inversamente proporcional ao quadrado da separação entre os dois objectos."
Newton acabou por publicar a sua, ainda hoje famosa, lei da gravitação universal, no seu Principia Mathematica,
como:

onde:
F = força gravitacional entre dois objectos
m1 = massa do primeiro objecto
m2 = massa do segundo objecto
r = distância entre os centros objectos
G = constante universal da gravitação
A força de atração entre dois objetos é chamada de peso. Rigorosamente falando, esta lei aplica-se apenas a
objectos semelhantes a pontos. Se os objectos possuírem extensão espacial, a verdadeira força terá de ser
26
encontrada pela integração das forças entre os vários pontos. Por outro lado, pode provar-se que para um
objecto com uma distribuição de massa esfericamente simétrica, a integral resulta na mesma atracção
gravitacional que teria se fosse uma massa pontual.
Forma Vectorial é uma versão simplificada. Ela é expressa mais propriamente pela forma que segue, a qual é
vetorialmente completa. (Todas as grandezas em negrito representam grandezas vetoriais)

onde:

é a força exercida em m1 por m2 m1 e m2 são as massas


e
são os vectores posição das duas massas respectivas G é a constante gravitacional
Para a força na massa dois, simplesmente tome o oposto do vetor

A principal diferença entre as duas formulações é que a segunda forma usa a diferença na posição para
construir um vetor que aponta de uma massa para a outra, e de seguida divide o vetor pelo seu módulo para
evitar que mude a magnitude da força.
Aceleração da gravidade
Para saber a aceleração da gravidade de um astro ou corpo, a fórmula matemática é parecida:

onde:
A = aceleração da gravidade
m = massa do astro
r = distância do centro do objecto
G = constante universal da gravitação

COMPARAÇÃO COM A FORÇA ELETROMAGNÉTICA


A atração gravitacional dos prótons é aproximadamente um fator 10 36 mais fraco que a repulsão
electromagnetica. Este fator é independente de distância, porque ambas as forças são inversamente
proporcionais ao quadrado da distância. Isso significa que, numa balança atômica, a gravidade mútua é
desprezável. Porém, a força principal entre os objetos comuns e a Terra e entre corpos celestiais é a gravidade,
quando pelo menos um deles é eletricamente neutro, ou quase. Contudo se em ambos os corpos houvesse um
excesso ou déficit de único elétron para cada 10 18 prótons isto já seria suficiente para cancelar a gravidade
(ou no caso de um excesso num e um déficit no outro: duplicar a atração).
A relativa fraqueza da gravidade pode ser demonstrada com um pequeno ímã, que vai atraindo para cima
pedaços de ferro pousados no chão. O minúsculo ímã consegue anular a força gravitacional da Terra inteira.
A gravidade é pequena, a menos que um dos dois corpos seja grande, mas a pequena força gravitacional
exercida por corpos de tamanho ordinário pode ser demonstrada com razoável facilidade por experiências como
a da barra de torção de Cavendish.

SISTEMA AUTO-GRAVITACIONAL
Um sistema auto-gravitacional é um sistema de massas mantidas juntas pela sua gravidade mútua. Um
exemplo de tal é uma estrela.
Ninguém tem certeza se o conto sobre Newton e a maçã é verídico, mas o raciocínio, com certeza, tem seu
valor. Ninguém antes dele ousou contrariar Aristóteles e dizer que a mesma força que atrai uma maçã para o
chão mantém a Lua, a Terra, e todos os planetas em suas órbitas.
Newton não foi o único a fazer contribuições significativas para o entendimento da gravidade. Antes dele,
Galileu Galilei corrigiu uma noção comum, partida do mesmo Aristóteles, de que objetos de massas diferentes
caem com velocidades diferentes. Para Aristóteles, simplesmente fazia sentido que objetos de massas
diferentes demorassem tempos diferentes a cair da mesma altura e isso era o bastante para ele. Galileu, no
entanto, tentou de fato lançar objetos de massas diferentes ao mesmo tempo e da mesma altura. Desprezando
as diferenças devido ao arraste do ar, Galileu observou que todas as massas aceleravam igualmente. Podemos
deduzir isso usando a Segunda Lei de Newton, F = ma. Se considerarmos dois corpos com massas m1 e m2
muito menores do que massa da terra MT, obtemos as equações:

Dividindo a primeira equação por m1 e a segunda por m2 obtemos:

27
ou seja, a1 = a2.
A teoria geral da gravidade de Einstein
A formulação da gravidade por Newton é bastante precisa para a maioria dos propósitos práticos. Existem, no
entanto, alguns problemas:
Assume que alterações na força gravitacional são transmitidas instantaneamente quando a posição dos corpos
gravitantes muda. Porém, isto contradiz o fato que existe uma velocidade limite a que podem ser transmitidos
os sinais (velocidade da luz no vácuo).
O pressuposto de espaço e tempo absolutos contradiz a teoria de relatividade especial de Einstein.
Prediz que a luz é desviada pela gravidade apenas metade do que é efectivamente observado.
Não explica ondas gravitacionais ou buracos negros, que no entanto também nunca foram observados
diretamente.
De acordo com a gravidade newtoniana (com transmissão instantânea de força gravitacional), se o Universo é
euclidiano, estático, de densidade uniforme em média positiva e infinito, a força gravitacional total num ponto é
uma série divergente. Por outras palavras, a gravidade newtoniana é incompatível com um Universo com estas
propriedades.
Para o primeiro destes problemas, Einstein e Hilbert desenvolveram uma nova teoria da gravidade chamada
relatividade geral, publicada em 1915. Esta teoria prediz que a presença de matéria "distorce" o ambiente de
espaço-tempo local, fazendo com que linhas aparentemente "rectas" no espaço e no tempo tenham
características que são normalmente associadas a linha "curvas".
Embora a relatividade geral seja, enquanto teoria, mais precisa que a lei de Newton, requer também um
formalismo matemático significativamente mais complexo. Em vez de descrever o efeito de gravitação como
uma "força", Einstein introduziu o conceito de espaço-tempo curvo, onde os corpos se movem ao longo de
trajetórias curvas.
A teoria da relatividade de Einstein prediz que a velocidade da gravidade (definida como a velocidade a que
mudanças na localização de uma massa são propagadas a outras massas) deve ser consistente com a
velocidade da luz. Em 2002, a experiência de Fomalont-Kopeikin produziu medições da velocidade da gravidade
que corresponderam a esta predição. No entanto, esta experiência ainda não sofreu um processo amplo de
revisão pelos pares, e está a encontrar cepticismo por parte dos que afirmam que Fomalont-Kopeikin não fez
mais do que medir a velocidade da luz de uma forma intrincada.

Mecânica quântica
A força da gravidade é, das quatro forças da natureza, a única que obstinadamente se recusa a ser quantizada
(as outras três - o eletromagnetismo, a força forte e a força fraca podem ser quantizadas). Quantização significa
que a força pode ser medida em partes discretas que não podem ser diminuídas em tamanho, não importando
o que aconteça; alternativamente, essa interação gravitacional é transmitida por partículas chamadas
gravitons. Cientistas têm estudado sobre o graviton por anos, mas têm tido apenas frustrações nas suas buscas
para encontrar uma consistente teoria quântica sobre isso. Muitos acreditam que a Teoria de cordas alcançará o
grande objetivo de unir Relatividade Geral e Mecânica Quântica, mas essa promessa ainda não se realizou.

APLICAÇÕES ESPECIAIS DE GRAVIDADE


Uma diferença de altura pode possibilitar uma útil pressão num líquido, como no caso do gotejamento
intravenoso (Intravenous Drip) e a Torre de Água.
A massa suspensa por um cabo através de uma polia possibilita uma tensão constante no cabo, incluindo no
outro lado da polia.
[editar] Comparação da força da gravidade em diferentes planetas
A aceleração devido à gravidade à superfície da Terra é, por convenção, igual a 9.80665 metros por segundo
quadrado (o valor real varia ligeiramente ao longo da superfície da Terra; ver g para mais detalhes). Esta
medida é conhecida como gn, ge, g0, ou simplesmente g. A lista que se segue apresenta a força da gravidade
(em múltiplos de g) na superfície dos diversos planetas do Sistema Solar:
Mercúr
0.376
io
Vénus 0.903
Terra = 1
Marte 0.38
Júpiter
2.34
1
Saturn
1.16
o1
Urano
1.15
1
Netun
1.19
o1
Nota: (1) No caso dos gigantes gasosos (Júpiter, Saturno, Urano e Netuno), diz-se que a "superfície" é a
distância ao centro do planeta, cuja pressão atmosférica é de 1 atm, igual à pressão atmosférica ao nível do
mar aqui na Terra.
Nota: para efeito de comparação, em Plutão, a força da gravidade é 0.066.

28
Nos corpos esféricos, a gravidade superficial em m/s2 é 2.8 × 10−10 vezes o raio em m vezes a densidade
média em kg/m3.
Em química, gravidade é a densidade de um fluido, particularmente um combustível. Expressa-se em graus,
com os valores mais baixos a indicar líquidos mais pesados e numerosos, mais elevados indicando liquidos mais
leves (ver Grau API).

LUZ E COR
A natureza da luz
– Os antigos pitagóricos acreditavam que a visão se devia exclusivamente a algo que saía dos nossos olhos, ou
seja, a luz estava em nós. Hoje já não se discute mais, como nos séculos XVII e XVIII, se a luz é formada por
feixes de minúsculas
partículas ou se é uma propagação ondulatória. A luz não é onde nem partícula. Ela se constitui de fótons,
partículas cujo comportamento tem natureza ondulatória.
Apesar de ser uma visão muito simplificada da compreensão atual que a física tem da natureza da luz, basta
saber que grande parte dos fenômenos luminosos podem ser estudados admitindo- se que a luz seja uma
propagação ondulatória com todas as propriedades características desse fenômeno.
A origem da luz é, de certa forma, semelhante à origem do som. Enquanto o som é produzido a partir de
oscilações mecânicas, pode-se dizer que a luz se origina de oscilações eletromagnéticas ou da oscilação de
cargas elétricas. Outra semelhança seria que, assim como nossos ouvidos só conseguem detectar uma pequena
faixa do espectro das ondas sonoras (20Hz – 20kHz), o que nossos olhos detectam como luz, é apenas uma
estreita faixa do espectro das ondas eletromagnéticas.
Em física, a única diferença entre todas as formas de radiação do espectro eletromagnético é o valor da
freqüência (ou do comprimento de onda, já que c = λ . f ). Ondas de rádio, microondas, calor ou radiações
infravermelhas, luz, radiações ultravioletas e raios X são radiações eletromagnéticas fisicamente idênticas. O
valor da freqüência, única diferença entre elas, se deve à fonte que as originou: quanto maior a energia, maior a
freqüência e mais próximo do interior do átomo está sua origem.
- As freqüências mais baixas provêm da oscilação de elétrons em fios condutores. É o caso das radiações
emitidas por condutores percorridos por corrente alternada, geralmente com freqüência de 60Hz. São elas que
produzem um ronco característico quando o rádio do carro, sintonizado em alguma estação em AM, passa sob
ou perto dos fios das redes de alta tensão. - No intervalo de 10
4
a 10
10
Hz, as fontes são circuitos oscilantes ou transmissores de estações de rádio e televisão.
– De 10
10
a 10
12
Hz estão as microondas, geradas por válvulas eletrônicas especiais.
– De 10
11
a 4.10
14
Hz estão as radiações de calor, ou infravermelhas, geradas pela vibração ou oscilação dos elétrons exteriores a
átomos e moléculas.
– No curto intervalo de 4.10
14
a 8.10
14
Hz , correspondente à luz visível até a freqüência de 10
17
Hz, onde estão compreendidas as radiações ultravioletas, as fontes são oscilações ou transições dos elétrons
entre as camadas mais externas dos átomos.
– Entre 10
15
a 10
20
Hz estão os raios X, originados das transições de elétrons mais internos do átomo ou da desaceleração muito
rápida de partículas de alta energia, carregadas eletricamente.
– De 10
19
a 10
24
Hz estão os raios gama, originados em transições de partículas em camadas do interior do núcleo atômico.

FONTES DE LUZ
Numa primeira abordagem, mais superficial, pode-se dizer que a reflexão é a causa mais comum da emissão de
luz (a grande maioria dos corpos que vemos reflete a luz que recebe) são corpos iluminados. Mas há muitas
outras causas: por exemplo, qualquer corpo aquecido a partir de certa temperatura torna-se luminoso. A
termodinâmica diz que qualquer corpo, a qualquer temperatura, emite radiação eletromagnética.

29
O corpo humano, por exemplo emite radiação infravermelha suficiente para ser detectada por equipamentos
apropriados (binóculos, câmaras fotográficas e de vídeo que permitem “ver” no escuro). Em outras palavras, se
nossa retina fosse sensível à radiação infravermelha, como esses aparelhos especiais, o corpo humano seria
considerado luminoso e não iluminado! Se as
dimensões da fonte luminosa forem desprezíveis, isto é, se puder ser representada por um ponto, a fonte é
considerada pontual. Se isso não for possível, a fonte é extensa. Esse conceito é relativo, a mesma fonte pode
ser considerada extensa ou pontual, dependendo das dimensões envolvidas na situação.

As sete cores do arco-íris


– Em 1665, quando Isaac Newton tinha 23 anos, a peste se espalhou pela Europa. Para fugir do contágio na
cidade grande, Newton passou um ano e meio no campo, na casa de sua mãe. Durante essas férias forçadas
dedicou-se ao estudo e à pesquisa
por conta própria e fez surpreendentes descobertas que só publicou vários anos depois em seu livro Óptica.
Newton dispunha apenas de alguns prismas, lentes e da luz do sol. Fazendo um pequeno furo em uma cortina
obteve um feixe estreito de luz que fez incidir sobre o prisma. A luz, depois de passar pelo prisma, projetava
sobre a parede oposta uma mancha alongada,
com as cores distribuídas do vermelho ao violeta. Esse belo fenômeno acontece quando o sol está
relativamente baixo, em um lado do céu, e no outro lado existem nuvens escuras de chuva. "Foi muito
agradável", escreveu ele, "observar as cores vivas e intensas, mas logo tratei de examiná-las com cuidado". De
cara, ele chegou à idéia de que a luz branca do sol é composta
de luzes de todas as cores visíveis. O que o prisma faz é, simplesmente, separar essas componentes. A
componente violeta é a mais desviada e a vermelha, a menos desviada. As outras têm desvios intermediários.
Tanto se pode dizer que as cores do arco-íris são sete, como cinco, seis, oito, milhares ou infinitas.
Para testar essa idéia, fez a luz espalhada pelo prisma incidir sobre outro prisma, colocado na posição invertida.
O segundo
prisma juntou de novo as luzes componentes e a luz branca ressurgiu no outro lado. Alguns texto relacionam
apenas seis
cores: vermelho, alaranjado, amarelo, verde, azul e violeta. É muito difícil distinguir mais cores do que essas no
arco-íris. A
faixa colorida obtida por Newton quando separou as cores da luz do Sol com um prisma é chamada de "espectro
da luz
solar".Essa separação, ou dispersão, pode ser obtida com um prisma ou com outro dispositivo chamado rede
de difração.
Recombinação da luz dispersada
Para ter certeza de sua interpretação, Newton fez uma experiência crucial: incidiu a luz dispersada sobre um
cartão
com um pequeno furo. Ajustando a posição do furo deixou passar só uma componente (a vermelha, por
exemplo). Fez
esse feixe incidir sobre o segundo prisma e não observou nenhuma decomposição a mais. O feixe se desviava
mas
continuava da mesma cor. A luz vermelha não se dispersa.
Com essas e outras observações, Newton demonstrou que a luz branca do sol é uma mistura de luzes com as
cores visíveis. Cada cor sofre um desvio diferente pelo prisma. Tecnicamente, dizemos que a luz violeta é mais
refringente que a vermelha, pois se desvia mais. Ou, em outros termos, o índice de refração da componente
violeta é maior que o índice de refração da componente vermelha.
O espectro da luz do Sol, dita "branca", é um contínuo com todas as cores visíveis.
Hoje sabemos que essas componentes têm comprimentos de onda que vão desde 4000 Ångstroms (violeta) até
7500 Ångstroms (vermelho). Os elementos ou compostos químicos podem ser induzidos a emitir luz, tanto na
chama de uma fogueira como no bucólico pisca-pisca dos vaga-lumes ou em animais de profundidade oceânica
que emitem luz como atrativo de suas presas, enquanto reações nucleares geram a fantástica luz do Sol e das
estrelas O físico alemão Gustav Kirchhoff descobriu que cada elemento químico emite luz com um espectro
distinto e bem característico. Isto é, o espectro pode ser usado para detectar a presença do elemento na fonte
de luz. Por exemplo, as lâmpadas azuladas que vemos nas grandes avenidas são ampolas com vapor de
mercúrio (Hg).
Quando uma corrente elétrica passa por esse vapor a lâmpada "acende", emitindo a luz característica do
elemento mercúrio. Veja, na figura abaixo, os espectros do hidrogênio (H) e do mercúrio (Hg). Os números são
os comprimentos de onda das raias, em Ångstroms.
Em 1815, Joseph von Fraunhoffer, observando o espectro solar, notou a presença de uma série de linhas
escuras sobrepostas sobre as cores contínuas do espectro. Com habilidade, Fraunhoffer contou mais de 500
dessas linhas pretas. Comparando as posições dessas linhas pretas com as posições das linhas já catalogadas
dos elementos, Fraunhoffer notou uma perfeita coincidência. Por exemplo, exatamente onde se situam as linhas
do hidrogênio, apareciam linhas escuras bem definidas no espectro solar. A explicação para essa linhas escuras
é a seguinte. O Sol emite luz com todas as cores, como já vimos. Mas, essa luz passa por gases relativamente
frios na superfície do próprio Sol. Esses gases absorvem a luz do Sol exatamente nas cores que gostam de
emitir. As linhas escuras de Fraunhoffer são linhas de absorção de luz. A fonte de luz pode ser uma estrela
distante, cuja luz é focalizada no espectrógrafo por um telescópio. Examinando o espectro da luz da estrela o
astrofísico obtém
informações sobre os elementos e compostos químicos presentes na estrela.
Em outras palavras, pode fazer uma análise química da estrela.
Um exemplo espetacular desse tipo de análise deu-se quando os cientistas descobriram linhas escuras no
espectro solar que não correspondiam a nenhum elemento conhecido. Eles chamaram esse elemento de hélio,
30
nome do deus do Sol da mitologia. Só 17 anos depois, oelemento hélio foi encontrado na Terra. A figura abaixo
mostra o espectro de emissão do hélio e as linhas de absorção que ele impõe sobre o espectro solar.

Somando e subtraindo cores. As cores da televisão -


O vermelho das rosas é uma propriedade intrínseca das rosas ou será devido apenas à luz que incide sobre
elas? A cor de um objeto depende tanto da luz que ilumina esse objeto quanto de propriedades específicas de
sua superfície e textura. Se as mesmas rosas forem iluminadas porluz verde esta será fortemente absorvida
pelas pétalas das rosas e elas tornam-se quase pretas.
A cor das rosas depende, portanto, das substâncias de suas pétalas, da luz ambiente e da interação entre elas.
Conforme a cor das folhas de uma planta a fotossíntese é diferente, ou seja, a captação de energia para
produção de energia é de diferentes comprimentos de onda.
Para entender melhor esse fato vamos ver como as cores podem ser somadas e subtraídas. Não é necessário
usar todas as cores
visíveis para obter o branco. Basta usar três cores, ditas primárias: o vermelho, o azul e o verde. Projetando,
sobre uma tela branca, feixes de luz com essas três cores primárias, observamos que a soma delas, no centro, é
branca. A SOMA do vermelho com o verde é o amarelo e assim por diante. Qualquer cor visível pode ser obtida
somando essa três cores, variando adequadamente a intensidade de cada uma delas. Na verdade, com essas
três cores conseguimos cores que nem estão no espectro solar, como o marrom. Isso é usado na tela da
televisão. Se você olhar bem de perto verá que a tela é coberta de pontos com apenas essas três cores. Vistos
de longe, os pontos se mesclam e vemos toda a gama multi-colorida. Aliás, neste
exato momento, todas as cores que você vê em seu monitor são a SOMA dessas três: vermelho, verde e azul
(Red, Green e Blue, RGB).

Somando as cores primárias.


SUBTRAIR cores consiste em eliminar uma ou mais das componentes da luz. Por exemplo, misturar
tintas equivale a subtrair cores. Desde crianças, sabemos que tinta azul misturada com tinta amarela dá tinta
verde. O
que acontece é que os pigmentos da tinta azul absorvem as componentes do lado vermelho e os pigmentos da
tinta
amarela absorvem as componentes do lado azul. Sobram as componentes intermediárias, isto é, o verde.
Subtraindo cores do branco.

A NATUREZA DA LUZ: ONDA OU PARTÍCULA


Na antiga Grécia já eram conhecidos e estudados alguns fenômenos ópticos, tais como, reflexão, refração,
decomposição da luz em prismas e havia também alguns grupos que definiam a natureza da luz conforme o
preceito básico que defendiam.
O filósofo grego Aristóteles (384-322 a.C.) foi a primeira pessoa, que se tem notícia, a adotar a natureza
ondulatória da luz, pois para ele a luz era uma espécie de fluído imaterial que chegava aos nossos olhos, vindo
dos objetos visíveis, através de ondas.
Empédocles (492-432) considerava que a luz era parte de um dos quatro elementos, o fogo, sem contudo se
confundir com este. Contrariamente a Pitágoras (582-500), que pensava ser a visão causada exclusivamente
por algo emitido pelo olho, Empédocles acreditava que os corpos luminosos emitiam algo que encontrava os
raios emanados dos olhos. Alguns filósofos antigos, adeptos do atomismo, consideravam a luz um fogo visual
composto de partículas, diferentes, no entanto, das que compunham o restante dos objetos por serem bem
menores. Tal concepção foi adotada por Epicuro (342-270), mas anteriormente havia sido modificada por
Anaxágoras (500-428) que substituiu as partículas, semelhantes aos objetos, por partículas com propriedades
individuais, tal como a cor, por exemplo.
Euclides (330-270) foi partidário e grande defensor da teoria pitagórica que dizia ser a luz proveniente do olho,
demonstrou, baseado na idéia de raio luminoso e da propagação retilínea, as leis da reflexão. Ptolomeu (90-147
ou 168?) tinha as mesmas concepções sobre a luz que Euclides, pensava que a cor era uma propriedade
inerente aos corpos e fez estudos sobre campo visual e refração da luz demonstrando que uma moeda oculta
no fundo de um copo poderia ser vista caso este fosse preenchido com água.
Não foram somente os gregos que estudaram a luz e seu comportamento, há indícios de que tanto os árabes
como os chineses conheciam alguns princípios básicos da Óptica. Os chineses utilizavam espelhos côncavos
como queimadores na vida prática e o árabe Ibn Al-Haytham (965-1039), conhecido como Alhazen, fez vários
estudos nessa área.
Al-Haytham rejeitava o princípio grego de que a luz emanava do olho, para ele a luz era emitida por uma força
autoluminosa que constituía uma fonte primária, no entanto, a luz também poderia ser emitida por uma fonte
secundária, caso das partículas de poeira que compõem um facho de luz solar, em ``forma de esfera'' (ver o
princípio da ondas secundárias de Huygens). Al-Haytham descreveu as cores como sendo independentes dos
objetos, mas presentes na luz, ou seja, misturadas a ela e nunca visíveis sem ela. É a Al-Haytham que devemos
a introdução do conceito de ``raio de luz'' graças às suas explicações coerentes sobre alguns fenômenos
ópticos.
Robert Grosseteste (1168-1253) concebia a luz como a primeira forma de matéria-prima a ser criada, uma
substância física que se propagava a partir de sua fonte, de onde surgiam as três dimensões do espaço.
Inspirado nos trabalhos de Al-Haytham estudou a Óptica, que considerava uma ciência física básica, e muito
contribuiu para o avanço da ciência. Leonardo da Vinci (1452-1519) também se interessou pela luz, mais do
ponto de vista científico do que artístico, o que o levou a estudar fenômenos ópticos e a conhecer a câmara
escura, precursora da máquina fotográfica e filmadora.
René Descartes (1596-1650) foi outro grande cientista que se interessou em desvendar a natureza da luz. Sua
opinião era a de que a luz era uma emissão de caráter corpuscular ligada a uma emissão vibratória. Para ele a
31
luz não possuía caráter material, mas sim o meio através do qual a luz se propagava - o éter. Embora Descartes
tenha esclarecido a atual da Lei da Refração da luz ( ), ele se equivocou em relação à
velocidade da luz ao dizer que esta aumentaria em meios mais densos do que menos densos.
Numa época em que fervilhavam idéias, em 1665 um fenômeno interessante surge dos experimentos do padre
Francesco Grimaldi (1618-1663) quando este examinava a sombra de um objeto delgado em uma câmara
escura provocada por uma luz forte ao atravessar um pequeno orifício. Ao invés de uma imagem nítida o padre
observou a formação de uma sombra mais larga e composta de partes claras e escuras, sobre isso afirmou,
``um corpo luminoso pode tornar-se obscuro quando se acrescente luz à luz que recebe''. O fenômeno descrito
é o de difração e levou Grimaldi a uma concepção vibratória da luz. Através dessa concepção ele explicou que a
formação de cores quando a luz atravessa o prisma é decorrente da ``mudança de velocidade do movimento
vibratório, que essas diferenças de cor são produzidas pelas vibrações de um fluído que atua sobre o olho com
velocidades diferentes, assim como a diversidade dos sons é devido à vibração do ar de rapidez desigual''.1
A relação das cores com o movimento vibratório levou Robert Hooke (1635-1703) a afirmar que o movimento da
luz é produzido por ondas perpendiculares à linha de propagação. Temos aqui uma referência à transversalidade
do movimento ondulatório que não foi aceita na época nem pelos defensores da teoria ondulatória da luz,
dentre os quais podemos destacar Christiaan Huygens que publicou no ``Tratado sobre a luz'' em 1690, uma
explicação para o fenômeno da reflexão e refração baseado no conceito de frente de ondas, atualmente
conhecido como Princípio de Huygens. Este princípio diz que
na propagação destas ondas, cada partícula do éter não só transmite o seu movimento à partícula seguinte, ao
longo da reta que parte do ponto luminoso, mas também a todas as partículas que a rodeiam e que se opõem
ao movimento. O resultado é uma onda em torno de cada partícula e que a tem como centro.2
Como vemos, a luz, para este cientista, constitui-se num movimento ondulatório que se propaga pelo éter
semelhantemente ao som que se propaga pelo ar. Huygens tentou explicar também no Tratado um fenômeno
bastante intrigante observado pelo dinamarquês Erasmo Bartolim (1625-1698) em 1669, a dupla refração
produzida no cristal da Islândia. Ele dizia que o raio ``extraordinário'' característico do fenômeno,
corresponderia à uma onda elipsoidal que se sobrepunha à onda esférica, correspondente ao raio ordinário.
Huygens, além de não conseguir explicar a cor através de seu modelo ondulatório, afirmou que a velocidade da
luz era mais lenta em meios mais densos, o que provocou a contestação por parte de alguns físicos. Edmond
Halley (1656-1742), por exemplo, questionou de que forma a luz poderia voltar à velocidade anterior depois de
atravessar um meio mais denso, mas ninguém o fez de forma tão presunçosa como Isaac Newton, que queria
saber por que, já que a luz era onda, ela não se curvava ao redor dos objetos, quer dizer, queria saber por que
existia a sombra se a luz, como onda, poderia contornar o objeto e iluminar o que estivesse por trás deste.
Newton apresentou à Royal Society, em 1672, um estudo sobre a dispersão da luz, baseado em experimentos
que fazia com prismas. Tais experimentos motivaram controvérsias no meio científico, pois naquela época a
experimentação deveria ser utilizada para confirmar ou negar algum tipo de teoria. Impulsionado por esta
controvérsia, pela ausência de explicação plausível para existência da sombra geométrica e também pelo fato
de ser um atomista, propôs um modelo corpuscular para explicar a natureza da luz.
(Credita-se a Heron de Alexandria (século II a.C.) a Lei da Reflexão, pois este percebeu que um raio de luz, ao
incidir num espelho, é refletido com ângulo igual ao raio incidente. É possível que Newton tenha se posicionado
a favor da teoria corpuscular ao relacionar o fenômeno descrito anteriormente com o fato de que uma bola,
correndo num plano horizontal, ao bater num obstáculo, retorna formando com o obstáculo o mesmo ângulo
que tinha ao chocar-se.)
Newton declarou que a luz branca era composta de uma mistura de várias cores, tal afirmação foi decorrente
dos vários experimentos realizados com o prisma, conforme já citamos. Essas cores correspondiam a uma
variedade de partículas, cada tipo correspondente a uma cor. Sobre a reflexão e a refração, Newton propôs um
engenhoso sistema de ``ajustes de fácil reflexão e de fácil refração'' que eram provocados por ``forças'' que
atuavam sobre os corpúsculos e foi dessa forma que ele também explicou o fenômeno de difração da luz,
descoberto por Grimaldi, as bordas dos objetos atuavam sobre os corpúsculos da luz fazendo com que houvesse
a inflexão da mesma.
Embora hoje saibamos que estava errado, estas explicações foram bem articuladas, diferentemente das
relacionadas com o fenômeno da dupla refração no cristal da Islândia. Newton também não foi bem sucedido ao
afirmar que a velocidade da luz aumenta quando esta passa de um meio menos denso para um meio mais
denso.
Estava montado o grande palco onde ocorreu a mais célebre discussão a respeito da natureza da luz, de um
lado Huygens e seu modelo ondulatório, de outro Isaac Newton e seu modelo corpuscular. O conceito de
corpúsculo, ou partícula, é completamente diferente do conceito de onda; uma partícula transporta matéria,
uma onda não, uma partícula pode se locomover no vácuo, uma onda necessita de um meio para se propagar
(nesse período era o que se pensava), uma onda atravessa obstáculos menores que seu comprimento, uma
partícula não, enfim, para a Física Clássica ou a luz era uma coisa ou outra, consequentemente, ou aceitava-se
o modelo ondulatório ou aceitava-se o modelo corpuscular, um descartava o outro e foi o que aconteceu por um
certo período.
O modelo de Newton prevaleceu sobre o de Huygens porque, além de sua explicação para as cores da luz ser
bem coerente, sua fama pesou muito na escolha do ``melhor'' modelo, tanto que pode ser percebido através
dos seguintes versos, escritos em 1860:
Você pensa que Newton disse uma mentira,
Aonde você espera ir quando morrer?3
Derrubar um mito nunca foi fácil, por isso aceitar o modelo contrário ao de Newton foi um trabalho bastante
árduo enfrentado por alguns cientistas tendo à frente Thomas Young (1773-1829). Motivado pelo estudo da
visão, Young questionou várias afirmações da teoria corpuscular de Newton. Ele não via nexo na explicação
newtoniana quando pensava no fato de que a luz tinha a mesma velocidade mesmo sendo emitida por corpos

32
diferentes e porque certos corpúsculos eram refletidos e outros refratados, pensava que uma teoria ondulatória
explicaria bem melhor esses fenômenos.
Young considerou que se a luz fosse ondas, elas poderiam, assim como as ondas do mar, anularem-se umas às
outras ou intensificarem-se e foi nesse sentido que trabalhou para explicar o fenômeno da interferência,
estudado por ele através do experimento da dupla fenda. Além da explicação sobre interferência luminosa,
explicou, de forma bem simples, como eram formados os conhecidos ``anéis de Newton'' supondo que cada cor
correspondia a um determinado comprimento de onda próprio. Interessante que Young utilizou dados do próprio
Newton em seus trabalhos, como pode ser observado nos originais. Quanto ao fenômeno da difração e da dupla
refração, as explicações de Young deixaram a desejar, por isso foi feito um desafio para que se apresentasse à
Acadèmie des Sciences uma teoria matemática para explicar os fenômenos.
Na época, muitos cientistas ainda aclamavam a teoria corpuscular de Newton como a correta para explicar a
natureza da luz e foi através desta teoria que Étienne-Louis Malus (1775-1812) ganhou um prêmio ao explicar o
fenômeno da reflexão da luz ocorrida em determinados ângulos em certas superfícies polidas, semelhante ao
observado na dupla refração, apelidando-o de ``polarização'' (observar no original de Newton uma relação com
este nome), Malus levou um prêmio da Acadèmie.
O prêmio para a explicação matemática do fenômeno da difração foi para Augunstin Fresnel (1788-1827),
defensor da teoria ondulatória da luz. Fresnel, utilizando raciocínios matemáticos, explicou a propagação
retilínea da luz, as leis de Descartes (refração) e a difração. Um episódio interessante ocorreu durante uma
demonstração de Fresnel, o matemático Denis Poisson (1781-1840), partidário da teoria corpuscular, previu
uma coisa absurda caso a teoria de Fresnel estivesse correta, um ponto brilhante deveria aparecer no centro da
sombra projetada de um disco circular. Para verificar tal ocorrência, montou-se um dispositivo experimental e,
para surpresa de muitos, verificou-se o fato.
Esses acontecimentos quase (quase) sepultaram a teoria corpuscular da luz, mas faltava ainda uma explicação
para a dupla refração, ou polarização, a partir da teoria ondulatória e uma comprovação da alteração da
velocidade da luz em meios de diferentes densidades.
A explicação do fenômeno da polarização da luz baseado no modelo ondulatório tropeçava no próprio modelo,
pois acreditava-se que as ondas da luz eram longitudinais, no entanto, uma mudança de conceito estava por vir
quando François Arago (1786-1853) juntou-se a Fresnel e, juntos, observaram um fato estranho: dois feixes
polarizados não interferiam um com o outro, como se esperava. Arago noticiou o fato a Young que não tardou
em presumir que, ao invés de longitudinais, as ondas da luz eram transversais. Arago e Fresnel continuaram o
estudo e, pelas palavras de Arago, chegaram à seguinte conclusão:
...(estas propriedades da luz) conduzem diretamente à solução da seguinte questão: como se efetuam as
ondulações da luz? No sentido da linha segundo a qual se popagam, ou perpendicularmente a essa linha? Este
último modo de propagação parece resultar das nossas experiência; contudo julguei tão difícil admiti-lo que
resolvi deixar ao meu colaborador sozinho o ``atrevimento'' dessa dedução.4
Podemos perceber, por estas palavras, o quanto a mudança de ondas longitudinais para transversais era difícil.
Tal dificuldade decorria da existência de um meio através do qual as ondas luminosas deveriam se propagar -- o
éter, mas isso é uma outra história.
Bem, esses acontecimentos se deram por volta de 1819, foi preciso esperar até 1862 para que Léon Foucault
realizasse o experimento para verificar a velocidade da luz na água. O resultado mostrou que, na água, a
velocidade da luz era menor do que no ar, veredicto totalmente contrário à previsões do grande Isaac Newton.
Deu-se então o sepultamento da teoria corpuscular da luz. (Vamos ver, mais para frente, que o cadáver
corpuscular não estava completamente morto!)
Michael Faraday (1791-1862), um cientista bastante dedicado à experimentação, demonstrou que um campo
magnético podia inverter os planos de polarização da luz (Efeito Faraday) e alertou James Clerk Maxwell (1831-
1879) sobre a relação entre a luz e os fenômenos eletromagnéticos. Este, aproveitando-se dos trabalhos
matemáticos de Fresnell, chegou a certas equações que expressavam o comportamento de uma corrente
elétrica e de seu campo magnético associado, tal qual as já determinadas para expressar o comportamento
ondulatório da luz. Em 1864, ele chegou à conclusão de que ``luz e magnetismo são resultados de uma mesma
substância, (...) a luz é um distúrbio eletromagnético propagado através do campo de acordo com as leis do
eletromagnetismo.''5
A novidade do trabalho de Maxwell foi demonstrar que a luz era uma onda eletromagnética e que, portanto,
com as ondas eletromagnéticas deveriam ocorrer os fenômenos de reflexão, refração, enfim, todos os que
ocorrem com a luz. Embora estes conhecimentos fossem de real importância, faltava-lhes ainda o aval da
comprovação experimental, realizada por Henrich Hertz (1857-1894).
Hertz montou um oscilador constituído de quatro esferas metálicas unidas duas a duas por uma haste ligada
aos terminais de uma bobina de Ruhmkorff (Figura 1), de onde conseguiu produzir ondas eletromagnéticas e
provar que estas possuíam a mesma velocidade da luz e podiam sofrer reflexão, refração, polarização, difração
e interferência. Além disso, Hertz também descobriu que outros tipos de ondas poderiam ser produzidas e, com
isso, descobriu as ondas de rádio e as microondas. Sua contribuição foi crucial para a compreensão dos
trabalhos de Maxwell e inaugurou a era do eletromagnetismo, uma era de grande desenvolvimento tecnológico
e sócio-econômico.
Um fenômeno assaz interessante foi percebido por Hertz por ocasião de suas atividades experimentais, ele
notou que faíscas no transmissor aumentavam a sensibilidade do detector. Com a morte prematura de Hertz,
seu auxiliar Philip Lenard (1862-1947) identificou a incidência de radiação ultravioleta juntamente com as
faíscas, montou então um experimento para verificar o fenômeno e, através deste, percebeu que a luz
arrancava cargas elétricas (ainda não fora descoberto o elétron) de uma placa emissora.
Lenard chegou às seguintes conclusões:
as cargas elétricas possuem velocidades iniciais finitas, mesmo num campo nulo e não dependem da
temperatura;
a intensidade da luz não influi na velocidade das cargas, mas sim sua freqüência;
33
o efeito é observado a partir de uma determinada freqüência;
o número de cargas emitidas depende da intensidade da luz.
Era inviável explicar o fenômeno a partir da teoria ondulatória da luz, principalmente no tocante à relação entre
a freqüência da luz e a velocidade das cargas.

Espectro Eletromagnético
O que têm em comum a luz, os raios X e as ondas de rádio? À primeira vista, nada, pois são fenômenos que
apresentam propriedades muito diferentes. A luz ilumina os objetos, os raios X permitem ver o interior de nosso
corpo e as ondas de rádio permitem a recepção de vozes, música e imagens.
De outro ponto de vista, porém, essas radiações são semelhantes: qualquer uma delas é uma vibração de
campos elétricos e magnéticos que se propagam no espaço com a velocidade da luz.
Luz, raios X e ondas de rádio são ondas eletromagnéticas. O que as diferencia é o comprimento de onda. O
conjunto de todas as ondas eletromagnéticas recebe o nome de espectro eletromagnético.

O ESPECTRO ELETROMAGNÉTICO
O espectro eletromagnético é a distribuição da intensidade da radiação eletromagnética com relação ao seu
comprimento de onda ou frequência.
Regiões do Espectro Eletromagnético
A Tabela abaixo dá os valores aproximados em comprimento de onda, frequência e energia para regiões
selecionadas do espectro eletromagnético.
Espectro de Radiação Eletromagnética

Região Comp. Comp. Onda Frequência Energia


Onda (centímetros) (Hz) (eV)
(Angstrom
s)

Rádio > 109 > 10 < 3 x 109 < 10-5

Micro-ondas 109 - 106 10 - 0.01 3 x 109 - 3 x 1012 10-5 - 0.01

Infra-
106 - 7000 0.01 - 7 x 10-5 3 x 1012 - 4.3 x 1014 0.01 - 2
vermelho

7000 - 7 x 10-5 - 4 x
Visível 4.3 x 1014 - 7.5 x 1014 2-3
4000 10-5

Ultravioleta 4000 - 10 4 x 10-5 - 10-7 7.5 x 1014 - 3 x 1017 3 - 103

Raios-X 10 - 0.1 10-7 - 10-9 3 x 1017 - 3 x 1019 103 - 105

Raios Gama < 0.1 < 10-9 > 3 x 1019 > 105
A representação gráfica do espectro eletromagnético é mostrada na figura abaixo.
Notamos que a luz visível, os raios gamas e as microondas são todas manifestação do mesmo fenômeno de
radiação eletromagnética, apenas possuem diferentes comprimentos de onda.

O Espectro da luz visível


O espectro visível pode ser subdividido de acordo com a cor, com vermelho nos comprimentos de onda longos e
violeta para os comprimentos de onda mais curtos

Transferência de calor
Condução
O fluxo de calor por condução ocorre via as colisões entre átomos e moléculas de uma substância e a
subsequente transferência de energia cinética. Vamos considerar duas substâncias a diferentes temperaturas
separadas por uma barreira que é removida subitamente, como mostra a figura abaixo.
Quando a barreira é removida, os átomos "quentes" colidem com os átomos "frios". Em tais colisões os átomos
rápidos perdem alguma velocidade e os mais lentos ganham velocidade. Logo, os mais rápidos transferem
alguma de sua energia para os mais lentos. Esta transferência de energia do lado quente para o lado frio é
chamada de fluxo de calor por condução.
Materiais diferentes transferem calor por condução com diferentes velocidades. Esta é uma medida da
condutividade térmica.
Condutividade térmica
Se envolvermos um objeto a uma temperatura T2 com uma camada de um material, de modo a isolá-lo do
ambiente externo a uma temperatura T1, então a condutividade térmica do material isolante determina a
rapidez com que o calor fluirá através dele.
A condutividade térmica k é definida através da equação
Q/ t = - k A T/ x [6.1]

34
Q/ t é a taxa com que o calor flui através da área A, em Joules por segundo, ou Watts. T/ x é a mudança
de temperatura por unidade de distância x em graus Kelvin, ou Celsius, por metro. A condutividade térmica k
é uma propriedade do material.
Suponha que coloquemos um material entre dois reservatórios a diferentes temperaturas, como mostra a figura
abaixo.
Vamos agora medir o fluxo de calor, Q/ t , através do material por unidade de tempo. Conhecendo a área
transversa, A, e o comprimento, L, e a condutividade térmica do material, k,

Q/ t = - k(A/L)
onde é a diferença de temperatura entre os reservatórios. O sinal menos significa que Q = Q2 - Q1 é
positivo quando     for negativo. Isto é, o fluxo de calor é da parte mais quente para a parte mais fria.
Logo, para uma dada diferença de temperatura entre os reservatórios, os materiais com condutividade térmica
maior irão transferir maiores quantidades de calor por unidade de tempo - tais materias, como cobre, são bons
condutores térmicos. Ao contrário, materiais com pequenas condutividades térmicas irão transferir pequenas
quantidades de calor por unidade de tempo - estes materais , como concreto, são condutores térmicos pobres.
Esta é a razão porque se você põe um pedaço de cobre e um pedaço de concreto no fogo, o cobre irá aquecer
muito mais rapidamente do que o concreto. Também é a razão porque o isolamento de fibra de vidro, e com
penas de aves ou couro, possuem buracos com ar dentro do material - o ar parado é um condutor pobre de
calor, e com isso ajuda a diminuir a perda de calor através do material.
Os isolamentos de casas em países frios também são condutores de calor pobres, que mantêm o calor no
interior. Ao contrário da condutividade térmica, o isolamento é usualmente descrito em termos de resistência
térmica, Rt, que é definida por
Rt = 1/k [6.2]
Logo, materiais que possuem uma alta condutividade térmica são resistores térmicos pobres - ou seja, isolantes
ruins. Por outro lado, materiais com pequena condutividade térmica possuem grande resistência térmica - são
bons isolantes.
Condutividades térmicas: (kcal/s)/ (oC m)
Alumínio 4,9 10-2

Cobre 9,2 10-2

Aço 1,1 10-2

Ar 5,7 10-6

Gelo 4 10-4

Madeira 2 10-5

Vidro 2 10-4

Amianto 2 10-5
1 kcal = 4184 J
Convecção
Este mecanismo não envolve transferência microscópica de calor, por átomos ou moléculas, como descrito
acima. Convecção é o fluxo de calor devido a um movimento macroscópico, carregando partes da substância
de uma região quente para uma região fria. Este mecanismo possui dois aspectos, um ligado ao princípio de
Arquimedes e outro ligado à pressão.
Suponha que tenhamos uma região de ar que se aquece. À medida que o ar se aquece as moléculas de ar se
espalham, fazendo com que esta região se torne menos densa que o ambiente em torno, o ar não aquecido.
Sendo menos denso ele se elevará - este movimento de ar quente para uma região mais fria é chamada de
transferência de calor por convecção.
Um bom exemplo de convecção é o aquecimento de uma panela de água. Quando a chama é ligada o calor é
transferido primeiro por condução a partir do fundo da panela. Em um certo momento, a água começa a fazer
bolhas - estas bolhas são de fato regiões locais de água quente subindo para a superfície, levando calor da
parte quente para a parte mais fria no topo, por convecção. Ao mesmo tempo, a água mais fria, mais densa, do
topo afundará, e será subsequentemente aquecida. Estas correntes de convecção são ilustradas na figura
abaixo.
Considere duas regiões separadas por uma barreira, uma a temperatura maior do que a outra, e suponha que a
barreira seja removida em um certo instante. As correntes de convecção são ilustradas na figura abaixo.
Quando a barreira é removida, o material na região de alta pressão (alta densidade) fluirá para a região de
baixa pressão (baixa densidade). Se considerarmos que a regiào de baixa pressão é criada por uma fonte
aquecedora, vemos que o movimento do material é equivalente à transferência de calor por convecção.
Um outro exemplo de correntes de convecção que pode ser interpretado dessa maneira, envolve a criação de
brisa para a costa próxima a grandes quantidades de água (ex., o mar). A água possui um grande calor
específico, e subsequentemente mantém mais o calor. Logo, durante o dia o ar sobre a água será mais frio do
que sobre a terra. Isto cria região de baixa pressão sobre a terra, relativa à alta pressão sobre a água. Como
consequência, uma brisa sopra da água para a terra. Por outro lado, durante a noite o ar sobre a água é um
pouco mais quente do que sobre a terra, criando uma baixa pressão sobre a água relativa à alta pressão sobre
a terra, e uma brisa sopra da terra para a água. Veja a ilustração abaixo.
35
RADIAÇÃO
A terceira forma de transferência de calor é por radiação, que frequentemente chamamos de luz, visível ou não.
Esta é a maneira, por exemplo, do sol transferir energia para a terra através do espaço vazio. Tal transferência
não pode ocorrer por convecção ou condução, ambos os quais implicam em um movimento de material através
do espaço de um lugar para outro.
Frequentemente, a energia de calor pode ser utilizada para fazer luz, tal como aquela proveniente de uma
fogueira. A luz, sendo uma onda, carrega energia, e pode mover-se de um lugar para outro sem a necessiade de
um meio material. Ela pode estar na forma de luz visível quando ela nos alcança e a vemos, mas também pode
estar na forma de infravermelho de um comprimento de onda maior, que é observada somente com detetores
especiais de infra-vermelho.
Transmissão de calor é a denominação dada à passagem da energia térmica ( que durante a transferência
recebe o nome de calor) de um corpo para outro ou de uma parte para outra de um mesmo corpo. Essa
transmissão pode se processar de três maneiras diferentes: condução, convecção e irradiação.

2. CONDUÇÃO
É o processo de transmissão de calor em que a energia térmica passa de um local para outro através das
partículas do meio que os separa. Na condução a passagem da energia de uma região para outra se faz da
seguinte maneira: na região mais quente, as partículas têm mais energia, vibrando com mais intensidade; com
esta vibração cada partícula transmite energia para a partícula vizinha, que passa a vibrar mais intensamente;
esta transmite energia para a seguinte e assim sucessivamente.
A condução de calor é um processo que exige a presença de um meio material e que, portanto, não ocorre no
vácuo.
Verifica-se experimentalmente, que o fluxo de calor através de uma placa é proporcional à área da placa A,
à diferença de temperatura entre os meios (1) e (2) que ela separa e é inversamente proporcional à
espessura da placa L.
onde C é o coeficiente de condutibilidade térmica do material da placa.
Os metais são muito bons condutores de calor, logo, têm C "grande".A madeira é péssima condutora de calor,
logo, tem C "pequeno".

3. CONVECÇÃO
Consideremos uma sala na qual se liga um aquecedor elétrico em sua parte inferior.O ar em torno do
aquecedor se aquece, tornando-se menos denso que o restante. Com isto ele sobe e o ar frio desce, havendo
uma troca de posição do ar quente que sobe e o ar frio que desce. A esse movimento de massas de fluido
chamamos convecção e as correntes de ar formadas são correntes de convecção.
Portanto, convecção é um movimento de massas de fluido, trocando de posição entre si. Notemos que não tem
significado falar em convecção no vácuo ou em um sólido, isto é, convecção só ocorre nos fluidos.
Exemplos ilustrativos:
1) No verão, deve-se introduzir o ar refrigerado nas salas pela parte superior, para que, devido à sua maior
densidade, ele desça, provocando a circulação de ar. No inverno, o ar quente deve ser introduzido pela parte
inferior da sala.
2) À beira-mar, a areia, tendo calor específico sensível muito menor que o da água, se aquece mais
rapidamente que a água durante o dia e se resfria mais rapidamente durante a noite.
DURANTE O DIA: O ar próximo da areia fica mais quente que o restante e sobe, dando lugar a uma corrente de
ar da água para a terra. É o vento que, durante o dia, sopra do mar para a terra.
DURANTE A NOITE: O ar próximo da superfície da água se resfria menos. Com isto ele fica mais quente que o
restante e sobe, dando lugar a uma corrente de ar da terra para a água. É o vento que, durante a noite, sopra
da terra para o mar.
Nas geladeiras o congelador é sempre colocado na parte superior, para que o ar se resfrie na sua presença e
desça, dando lugar ao ar mais quente que sobe.As prateleiras são feitas em grades (e não inteiriças) para
permitir a convecção do ar dentro da geladeira.

4. IRRADIAÇÃO
É o processo de transmissão de calor através de ondas eletromagnéticas (ondas de calor). A energia emitida
por um corpo (energia radiante) se propaga até o outro, através do espaço que os separa.
Sendo uma transmissão de calor através de ondas eletromagnéticas, a radiação não exige a presença do meio
material para ocorrer, isto é, a radiação ocorre no vácuo e também em meios materiais.
Entretanto, não são todos os meios materiais que permitem a propagação das ondas de calor através deles.
Toda energia radiante, transportada por onda de rádio, infravermelha, ultravioleta, luz visível, raio X, raio
gama, etc., pode converter-se em energia térmica por absorção. Porém, só as radiações infravermelhas são
chamadas de ondas de calor.
ATENÇÃO:
Um corpo bom absorvente de calor é um mau refletor.
Um corpo bom refletor de calor é um mau absorvente.
TODO BOM ABSORVENTE É BOM EMISSOR DE CALOR.
TODO BOM REFLETOR É MAU EMISSOR.
Exemplo:
Corpos negros são bons absorventes e corpos claros são bons refletores de calor.

FONTES DE ENERGIA
36
As fontes de energia podem ser convencionais ou alternativas. Energia convencional é caracterizada pelo baixo
custo, grande impacto ambiental e tecnologia difundida. Já a energia alternativa é aquela originada como
solução para diminuir o impacto ambiental. Com essas duas fontes de energia, surgem também duas
distinções: renováveis e não-renováveis.
Renovável: é a energia que é extraída de fontes naturais capaz de se regenerar, consequentemente
inesgotável. Ex: energia solar, energia eólica, etc.
Não-renovável: é a energia que se encontra na natureza em quantidades limitadas, que com sua utilização se
extingue. Ex: petróleo, carvão mineral, etc.
Biocombustivéis
As vantagens da utilização dos biocombustivéis.
Carvão Mineral
A poluição causada pelo carvão mineral.
Energia Hidrelétrica
A utilização e a crise da energia hidrelétrica.
Energia Nuclear
Como é produzida a energia nuclear.
Energia Solar
As formas de captação da energia solar.
Gás Natural
A produção e distribuição do gás natural.
Carvão Vegetal
A utilização do carvão vegetal.

RADIOATIVIDADE
A radioatividade ou radiatividade (em Portugal: radioactividade) é um fenômeno natural ou artificial, pelo qual
algumas substâncias ou elementos químicos, chamados radioativos, são capazes de emitir radiações, as quais
têm a propriedade de impressionar placas fotográficas, ionizar gases, produzir fluorescência, atravessar corpos
opacos à luz ordinária, etc. As radiações emitidas pelas substâncias radioativas são principalmente partículas
alfa, partículas beta e raios gama. A radioatividade é uma forma de energia nuclear, usada em medicina
(radioterapia), e consiste no fato de alguns átomos como os do urânio, rádio e tório serem “instáveis”, perdendo
constantemente partículas alfa, beta e gama (raios-X). O urânio, por exemplo, tem 92 prótons, porém através
dos séculos vai perdendo-os na forma de radiações, até terminar em chumbo, com 82 prótons estáveis.
A radioatividade pode ser:
Radioatividade natural: É a que se manifesta nos elementos radioativos e nos isótopos que se encontram na
natureza e polui o meio ambiente.
Radioatividade artificial ou induzida: É aquela que é provocada por transformações nucleares artificiais.
Produz-se a radioatividade induzida quando se bombardeiam certos núcleos com partículas apropriadas. Se a
energia destas partículas tem um valor adequado, elas penetram no núcleo bombardeado formando um novo
núcleo que, no caso de ser instável, se desintegra posteriormente. Foi descoberta pelo casal “Joliot-Curie”
(Frédéric Joliot e Irène Joliot-Curie), bombardeando núcleos de boro e alumínio com partículas alfa. Observaram
que as substâncias bombardeadas emitiam radiações após retirar o corpo radioativo emissor das partículas alfa.
O estudo da radioatividade permitiu um maior conhecimento da estrutura dos núcleos atômicos e das partículas
subatômicas. Abriu-se a possibilidade da transmutação dos elementos, ou seja, a transformação de elementos
em elementos diferentes. Inclusive o sonho dos alquimistas de transformar outros elementos em ouro se tornou
realidade, mesmo que o processo economicamente não seja rentável.
Comprovou-se que a radiação pode ser de três classes diferentes:
Radiação alfa São fluxos de partículas carregadas positivamente, compostas por 2 nêutrons e 2 prótons (núcleo
de hélio). São desviadas por campos elétricos e magnéticos. São muito ionizantes porém pouco penetrantes.
Quando um radioisótopo ( que possui núcleo instável ) emite uma partícula alfa, seu número de massa (A)
diminui 4 unidades e o seu nº atômico diminui 2 unidades.
Radiação beta São fluxos de elétrons resultantes da desintegração de neutrons do núcleo (ver "Leis de Soddy e
Fajans" abaixo para uma melhor interpretação de "desintegração"). É desviada por campos elétricos e
magnéticos. É mais penetrante porém menos ionizante que a radiação alfa.
Radiação gama São ondas eletromagnéticas. É o tipo mais penetrante de radiação. Não apresenta carga elétrica
e não é afetada pelos campos elétricos e magnéticos. É uma radiação muito perigosa aos organismos vivos.
Com o recebimento da Radiação Gama, pode-se alterar o material genético da pessoa, fazendo com que seus
filhos tenham alta possibilidade de nascerem cegos, surdos, mudos ou com alguma deficiência.
Leis de Soddy e Fajans
As leis da desintegração radioativa, descritas por Soddy e Fajans, são:
Quando um átomo radioativo emite uma partícula alfa, o número de massa do átomo resultante diminui em 4
unidades e o número atômico em 2 unidades.
Quando o átomo radioativo emite uma partícula beta, o número de massa do átomo resultante não varia e o
seu número atômico aumenta em 1 unidade.
Quando um núcleo "excitado" emite uma radiação gama não ocorre variação no seu número de massa e
número atômico, porém ocorre uma perda de uma quantidade de energia "hv".
As duas primeiras leis nos indicam que, quando um átomo emite uma radiação alfa ou beta, transforma-se em
outro átomo de elemento químico diferente. Este novo elemento pode ser radioativo, transformando-se em
outro, e assim sucessivamente, dando lugar às chamadas "séries radioativas".
Desse modo, a emissão de partículas alfa e beta pelos átomos instáveis muda seu número atômico,
transformando-os em outros elementos. O processo de desintegração nuclear só termina com a formação de
átomos estáveis. O urânio-238, por exemplo, vai sofrendo decaimento até formar o elemento chumbo-206.
37
O QUE É RADIOATIVIDADE?
Existem na Natureza alguns elementos fisicamente instáveis, cujos átomos, ao se desintegrarem, emitem
energia sob forma de radiação. Dá-se o nome radioatividade justamente a essa propriedade que tais átomos
têm de emitir radiação.
O urânio-235, o césio-137, o cobalto-60, o tório-232 são exemplos de elementos fisicamente instáveis ou
radioativos. Eles estão em constante e lenta desintegração, liberando energia através de ondas
eletromagnéticas (raios gamas) ou partículas subatômicas com altas velocidades (partículas alfa, beta e
nêutrons). Esses elementos, portanto, emitem radiação constantemente.
A radioatividade foi descoberta pelos cientistas no final do século passado. Até aquela época predominava a
idéia de que os átomos eram as menores partículas de qualquer matéria e semelhantes a esferas sólidas. A
descoberta da radiação revelou a existência de partículas menores que o átomo: os prótons e os nêutrons, que
compõem o núcleo do átomo, e os elétron, que giram em torno do núcleo. Essas partículas, chamadas de
subatômicas, movimentam-se com altíssimas velocidades.
Descobriu-se também que os átomos não são todos iguais. O átomo de hidrogênio, por exemplo, o mais simples
de todos, possui 1 próton e 1 elétron (e nenhum nêutron). já o átomo de urânio-235 conta com 92 prótons e 143
nêutrons.

O lado útil e o lado destrutivo da radioatividade.


Os elementos radioativos, quando bem manipulados, podem ser úteis ao seres humanos. O césio-137,
por exemplo, é muito utilizado em tratamento de tumores cancerosos.
A humanidade convive no seu dia-a-dia com a radioatividade, seja através de fontes naturais de radiação
(os elementos radioativos que existem na superfície da Terra ou os raios cósmicos que vêm do espaço), seja
pelas fontes artificiais, criadas pelo próprio homem: o uso de raios X na medicina, as chuvas de partículas
radioativas produzidas pelos testes de armas nucleares, etc.
Os efeitos da radioatividade no ser humano dependem da quantidade acumulada no organismo e do tipo
de radiação. A radioatividade é inofensiva para a vida humana em pequenas doses, mas, se a dose for
excessiva, pode provocar lesões no sistema nervoso, no aparelho gastrintestinal, na medula óssea, etc.,
ocasionando por vezes a morte (em poucos dias ou num espaço de dez a quarenta anos, através de leucemia
ou outro tipo de câncer).
Existem vários tipos de radiação; alguns exemplos: partículas alfa, partículas beta, nêutrons, raios X e raios
gama. As partículas alfa, por terem massa e carga elétrica relativamente maior que as outras citadas, podem
ser facilmente detidas, até mesmo por uma folha de papel; elas em geral não conseguem ultrapassar as
camadas externas de células mortas da pele de uma pessoa, sendo assim praticamente inofensivas. Entretanto,
podem ocasionalmente penetrar no organismo através de um ferimento ou por aspiração, provocando lesões
graves. Sua constituição é de núcleos de Hélio, dois prótons e dois nêutrons, podendo ser representadas por 42
a
Possuem as seguintes características:
> Velocidade inicial variando de 3000 a 30 000 km/s (velocidade média em torno de 20 000 km/s ou 5% da
velocidade da luz)
> Pequeno poder de penetração. São detidas por uma camada de 7 cm de ar, uma folha de papel ou uma
chapa de alumínio, com 0,06 milímetros de espessura. ao incidir sobre o corpo humano, são detidas pela
camada de células mortas da pele, podendo, no máximo, causar queimaduras.
Já as partículas beta são capazes de penetrar cerca de um centímetro nos tecidos, ocasionalmente danos à
pele, mas não aos órgãos internos, a não ser que sejam engolidas ou aspiradas. As partículas beta são
semelhantes aos elétrons, possuem massa desprezível e carga elétrica (relativa) igual a -1. São portanto,
representados por 0-1 b
Possuem as seguintes características:
> Velocidade inicial variando entre 100 000 e 290 000 km/s, ou seja, até 95% da velocidade da luz.
> Médio poder de penetração. São de 50 e 100 vezes mais penetrantes que as partículas alfa. Atravessam
alguns metros de ar e até 16 mm de madeira. São detidas por lâminas de alumínio com 1cm de espessura ou
por lâminas de chumbo com espessura maior que 2mm. Ao incidirem sobre o corpo humano, podem penetrar
até 2cm e causar sérios danos.
Os raios gama e os raios X são extremamente penetrantes, podendo atravessar o corpo humano, sendo detidos
somente por uma parede grossa de concreto ou metal.As radiações gama são semelhantes ao Raios X. Não
possuem massa e nem carga elétrica, são portanto representados por 00 g
Possuem as seguintes características:
> Velocidade igual à velocidade da luz, ou aproximadamente 300 000 km/s.
> Alto poder de penetração. os raios gama são mais penetrantes que os raios X, pois possuem comprimentos
de onda bem
menores, variando entre 0,1e 0,001 angstrons. Atravessam milhares de metros de ar, até 25 cm de madeira ou
15 cm de espessura de aço. São detidos por placas de chumbo com mais de 5cm de espessura ou por grossas
paredes de concreto. Podem atravessar completamente o corpo humano causando danos irreparáveis.
Os efeitos da radiação
Ser atingido por radiação é algo sutil e impossível de ser percebido imediatamente, já que no momento do
impacto não ocorre dor ou lesão visível. Bem diferente de ser atingido por uma bala de revólver, por exemplo,
cujo efeito destrutivo é sentido e contatado na hora.
A radiação ataca as células do corpo individualmente, fazendo com que os átomos que compõem as células
sofram alterações em sua estrutura. As ligações químicas podem ser alteradas, afetando o funcionamento das
células. Isso, por sua vez, provoca com o tempo conseqüências biológicas no funcionamento do organismo
como um todo; algumas conseqüências podem ser percebidas a curto prazo, outras a longo prazo.; às vezes vão
38
apresentar problemas somente os descendentes (filhos, netos) da pessoa que sofreu alguma alteração genética
induzida pela radioatividade.
Emiliano Chemello
echemell@ucs.br

CONSERVAÇÃO DA MASSA
A Lei da Conservação das Massas foi publicada pela primeira vez 1760, em um ensaio de Mikhail Lomonosov. No
entanto, a obra não repercutiu na Europa Ocidental, cabendo ao francês Antoine Lavoisier o papel de tornar
mundialmente conhecido o que hoje se chama Lei de Lavoisier.
Preocupado em utilizar métodos quantitativos, Lavoisier tinha a balança como um de seus principais
instrumentos em atividades experimentais.
Por volta de 1774, o químico francês realizava experiências sobre a combustão e a calcinação de substâncias.
Observou que, dessas reações, sempre resultavam óxidos cujo peso era maior que o das substâncias
originalmente usadas.
Informado sobre as características do gás que ativava a queima de outras substâncias (que mais tarde foi
denominado pelo próprio Lavoisier como oxigênio, que quer dizer gerador de ácidos), passou a fazer
experiências com o mesmo e acabou por deduzir que a combustão e a calcinação nada mais eram que o
resultado da combinação desse gás com as outras substâncias. E que a massa aumentada dos compostos
resultantes correspondia à massa da substância inicialmente empregada, mais a massa do gás a ela
incorporado através da reação.

Lei de Lavoisier
Os estudos experimentais realizados por Lavoisier levaram-no a concluir que, numa reação química que se
processe num sistema fechado, a massa permanece constante, ou seja, a soma das massas dos reagentes é
igual à soma das massas dos produtos:
m(reagentes) = m(produtos)
Assim, por exemplo, quando 2 gramas de hidrogênio reagem com 16 gramas de oxigênio verifica-se a formação
de 18 gramas de água; do mesmo modo, quando 12 gramas de carbono reagem com 32 gramas de oxigênio
ocorre a formação de 44 gramas de gás carbônico.
Através de seus trabalhos, pôde enunciar uma lei que ficou conhecida como Lei da Conservação das Massas ou
Lei de Lavoisier:
"Numa reação química que ocorre em sistema fechado, a massa total antes da reação é igual à massa total
após a reação".
ou,
"Numa reação química a massa se conserva porque não ocorre criação nem destruição de átomos. Os átomos
são conservados, eles apenas se rearranjam. Os agregados atômicos dos reagentes são desfeitos e novos
agregados atômicos são formados".
Ou ainda, filosoficamente falando,
"Na natureza nada se cria, nada se perde, tudo se transforma".
O que hoje pode parecer evidente, nem sempre o foi. Queimando-se magnésio, cientistas anteriores a Lavoisier
observavam um aumento de massa, enquanto que, queimando enxofre, notavam uma perda de massa. Coube
a Lavoisier, percebendo que esses ensaios deveriam ser feitos em sistemas fechados, esclarecer que as
diferenças de massas eram devidas à absorção ou liberação de gases durante as reações.
Atualmente sabemos que a lei de Lavoisier como inicialmente foi proposta nem se verifica. É possível a perda
de massa no decurso de uma reacção libertando-se energia (fenómeno explicável pela teoria da relatividade). O
que se deverá verificar sempre é a primeira lei da termodinâmica.

CONSERVAÇÃO DA MASSA
A equação da conservação da massa expressa um cálculo para a adição e remoção da massa de uma região
definida de fluído. Considere um volume de fluído fixo, não deformável, chamado de volume controle (vc) que
possui um contorno de superfície definido, chamado desuperfície controle (sc). A conservação da massa exige
que a taxa temporal de variação de massa dentro do volume controle seja igual à taxa na qual a massa adentra
no volume controle mais a taxa na qual a massa é obtida ou perdida dentro do volume controle em virtude das
fontes e consumo. Uma expressão matemática dessa lei está descrita abaixo.
Dentro do volume controle existe a distribuição de algumas espécies definidas pelo campo de concentração,
C(x, y, z). A massa total dentro do volume controle é M pode mudar durante o tempo em virtude de fontes e
consumo localizados dentro do volume, ou em virtude fluxos de massa através dos contornos do volume
controle. Em um sistema de fluído existem duas formas de fluxo de massa: advecção e difusão. O fluxo líquido
da massa para fora do volume controle em virtude da advecção é descrito pela integral
Aqui, é o vetor de velocidade e ñ é a normal de direção externa para o segmento de superfície dA. representa o
componente de velocidade perpendicular ao segmento de área dA. A definição de ñ como a normal de direção
externa torna (2) o fluxo líquido para fora de . Isso é, o fluxo para fora de (mesma direção de ñ) contribui de
forma positiva para a integral e o fluxo para
(em oposição a ñ) contribui de forma negativa. O fluxo líquido do volume controle em virtude da difusão é
definido através da Lei de Fick.
Observe que os gradientes de concentração são definidos ao longo do eixo ñ, i.e. em todos os locais
perpendiculares à superfície e posição em direção externa. Chamando D n de coeficientes de difusão ao longo
do eixo ñ permite a anisotropia em D. No caso de difusão molecular e/ou turbulência isotrópica, D não é uma
função de direção e o subscrito pode ser cancelado. A expressão matemática final para a conservação da massa
combina (1), (2) e (3).

39
Conservação da Massa em Forma Integral (Volume Controle) (4) taxa de tempo de variação de massa dentro do
vc fluxo Advectivo para dentro do volume controle fluxo difuso para dentro do volume controle Fonte
consumidor
Problemas-exemplo usando a forma integral da Conservação da Massa (abrir a partir da página principal para
visualizar em uma nova janela) Forma Diferencial da Conservação da Massa A forma diferencial da conservação
da massa é derivada avaliando (4) para um volume cúbico infinitamente pequeno. O volume é pequeno o
suficiente para assumirmos que a concentração dentro do volume é essencialmente uniforme. O volume é
rígido, de forma que as dimensões , e são constantes. As duas integrais de superfície (termos 2 e 3 em (4)) são
reduzidas a uma soma de fluxos através de cada uma das seis faces do cubo.
Como exemplo, considere fluxos na direção x através das faces numeradas 1 e 2 e localizadas em x=x
1
ex
2 , respectivamente.
Na face 1, ñ aponta para a direção negativa n, de forma que e .
A avaliação da integral da superfície para a face 1 é então, (6) Fluxo através de Semelhantemente para a face
2, mas observando que ñ aponta para direção positiva x, (7) Fluxo através de O fluxo líquido de direção x para
dentro do volume controle é a soma de (6) e (7).
(8) O fluxo líquido em Se assumirmos que C, u,
eD
x
são funções contínuas de x, pode-se usar a expansão de Taylor para expressar cada parâmetro em x
2
como uma função do mesmo parâmetro em x 1 .
termos de ordem superior
Se cancelarmos os termos de ordem superior e substituirmos (uC)
2
e
em (8) com as expressões em (9) e (10), então (8) será (11) Fluxo líquido em Expressões semelhantes podem
ser encontradas para o fluxo através das outras quatro faces.
Combinando essas em (5) e observando que , Conservação da Massa em Forma Diferencial Essa expressão
pode ser simplificada sob as seguintes condições.
Primeiro, considere a expansão dos fluxos advectivos em (12), Se o campo do fluxo for incompressível, então de
continuidade
Isso elimina os termos em colchetes em (13). Dessa forma, a conservação da massa para fluxo incompressível
pode ser expressa como se segue. Por convenção, os termos advectivos são trazidos para a esquerda.
Conservação da Massa para Fluxo Incompressível
Além disso, quando os coeficientes de difusão são homogêneos, D
i
I [ \ RX ]
Se os coeficientes de difusão forem adicionalmente isotrópicos, D
x
=D
y
=D
z
, então
A difusão molecular do fluxo laminar controla o fluxo difusivo. De forma geral, a difusão molecular é homogênea
e isotrópica, de forma que (14b) é adequada para o fluxo laminar. O transporte turbulento do fluxo turbulento
domina o fluxo difusivo. Comumente, o campo de turbulência é heterogêneo e anisotrópico, o que também
acontece com os coeficientes de difusão.

2.1 Derivada Material


O movimento do fluído e qualquer constituinte (temperatura, concentração) transportados pela movimentação
dos fluídos podem ser descritos a partir de duas estruturas de referência, uma estacionária e uma que se move
ao longo do fluxo. Na perspectiva Euleriana, o fluxo e seus constituintes escalares são descritos em relação à
posições espaciais fixas, = (x, y, z) e com relação ao tempo (t) e são expressos por exemplo.
e . A perspectiva Lagrangiana considera o movimento com o fluxo e traça o histórico das partículas individuais
do fluído. Diferentemente da perspectiva Euleriana, na qual a posição espacial é uma referência fixa, na
perspectiva Lagrangiana, a posição espacial é outra variável da partícula. As variáveis do fluxo são expressas
em relação ao tempo (t) e em relação à uma única posição inicial de referência, por exemplo da posição da
partícula em t=0 de tal forma que as variáveis são registradas como e .
A representação da perspectiva Euleriana é geralmente mais fácil e, por esse motivo, mais comum na análise e
descrição do fluxo. No entanto, a física e transporte do fluxo são mais fundamentais em relação à perspectiva
Lagrangiana. Por exemplo, as equações de Navier-Stokes representam essencialmente a segunda lei de Newton
aplicada às partículas do fluído. Para problemas de transporte, por exemplo ao acompanharmos a evolução do
trajeto do fitoplâncton à medida em que ele cresce (fonte) e serve de alimento (consumo) e espalha-se por
difusão, é possível observar novamente a vantagem conceitual da perspectiva Lagrangiana: prever a
concentração através do acompanhamento do trajeto. Uma vez que ambas as
perspectivas são importantes, é essencial compreender sua correlação.
Considere F (x, y, z, t) como qualquer variável no fluxo descrito em termos de coordenada Euleriana fixa (x, y,
z). Queremos relacionar essa descrição a uma perspectiva Lagrangiana, especificamente para descrever a taxa
40
de variação em F observada durante o acompanhamento de uma única partícula através do fluxo. Primeiro
podemos descrever uma variação em F, chamada dF, em virtude de uma pequena variação na posição espacial
e/ou tempo (dt), como Depois, restringimos os aumentos dt e d[x] de forma que eles sigam a trajetória de uma
partícula individual, especificamente, dx = u, dt, dy = v e dz = w dt. Então (15) torna-se
Dividindo por dt resulta em uma derivada que representa a taxa de variação em F observada durante o
acompanhamento da trajetória de uma partícula do fluído. Para enfatizar essa definição especial, a derivada é
chamada de DF/Dt, i.e. A notação DF/Dt é chamada derivada material (também a derivada da partículas,
derivada substancial e derivada total) para enfatizar que ela foi calculada durante o acompanhamento de uma
partícula de fluído. A derivada material possui duas partes. Primeira,
, chamada de derivada local, representa a taxa de variação em qualquer ponto fixo. Para um fluxo estável, . Os
termos restantes, , são chamados de derivada advectiva porque seu registro muda em F, que surge quando o
elemento fluido surge por
advecção através de um gradiente espacial em F. As animações ajudam a demonstrar a derivada material.
Campo de Temperatura Estável: Essa animação mostra um sistema unidimensional com um gradiente espacial
de temperatura, T(x). Uma sonda de temperatura (ponto branco) move-se com o fluxo, fazendo uma
observação Lagrangiana. A sonda registra a derivada material (total), que unidimensionalmente é Sondas
localizadas em posições fixas A, B e C fazem observações Eulerianas. Elas mostram campos de temperatura
estáveis, , de forma que a derivada material é igual à derivada advectiva,
. Isso é quantificado no canto inferior direito da animação. O campo de temperatura mostrado aqui poderia ser
resultante de um fluxo uniforme e estável através de um elemento de aquecimento. A temperatura do fluído
aumenta à medida que o calor é adicionado ao longo do trajeto do fluxo.

Campo de Temperatura Instável: Essa animação mostra um sistema unidimensional com um campo de
temperatura instável, T(x,t). Uma sonda de temperatura move-se com o fluxo (ponto branco) a uma velocidade
(u), e registra a derivada material dada em (18). Três sondas adicionais estão localizadas em posições fixas A, B
e C. Essas sondas registram a derivada
local, , que é diferente de zero (instável), mas que é a mesma em cada posição. O valor de cada derivada é
dado no canto inferior direito. Fluxo Estável e Acelerado Espacialmente em um Cano: Nessa animação, um fluxo
através de
um cano é acelerado corrente abaixo à medida que a secção transversal do cano diminui, . Três sondas medindo
o fluxo em posições fixas A, B e C mostram que o fluxo é estável em cada posição. Outra sonda de velocidade
está movendo-se com o fluxo (ponto azul) e registra a derivada material (total), Du/Dt. Dentro de cada secção
do cano, Du/Dt=0, como mostrado pelo traço azul no gráfico Velocidade vs. Tempo. Nas variações de etapa na
área da secção transversal, o fluído é acelerado localmente, e nessas posições .
Qual é a velocidade média nesse sistema? Da perspectiva de transporte, a melhor definição da velocidade
média é a definição Lagrangiana, i.e. a velocidade média experienciada pela sonda movendo-se através do
fluxo. São necessários 109 segundos para a sonda atravessar o cano de 90 metros de extensão. Isso resulta em
uma velocidade média de 90/109 = 0,83 ms
-1
. é possível definir uma velocidade Euleriana média com base na média espacial de velocidade dentro das três
secções. Uma vez que a extensão dos segmentos é igual dentro desse sistema unidimensional, a média é direta
(0,50 + 0,89 + 2,0) = 1,13 m/s. Esse valor não é significativo, entretanto, a perspectiva de transporte, porque
ela não prevê o tempo de viagem através do
sistema, .

41