Você está na página 1de 9

Física Estatística

Trabalho 1
José Gonçalves

Alíneas de apoio
b) Considerando que:
𝑚 = 𝑛+ − 𝑛− = 2𝑛+ − 𝑁 (1)
𝑁 = 𝑛+ + 𝑛− (2)
Somando/subtraindo as equações (1) e (2), tem-se que:
𝑁+𝑚 (1) + (2)
2𝑛+ = 𝑁 + 𝑚 ⟺ 𝑛+ =
2

𝑁−𝑚 (2) - (1)


2𝑛− = 𝑁 − 𝑚 ⟺ 𝑛− =
2
Ou seja, para escrever WN (n+) em função de N e m, basta substituir n+
por (N+m)/2 e n- por (N-m)/2:
𝑁! 𝑁+𝑚 𝑁−𝑚
𝑊𝑁 (𝑚) = 𝑝 2 𝑞 2
𝑁+𝑚 𝑁−𝑚
! !
2 2
d), e) Para calcular o valor médio de n+, teremos de usar WN (n+) como
o peso de cada valor de n+:

𝑁 𝑁
𝑁! ∂ 𝑁!
̅̅̅+̅ = ∑ 𝑛+
𝑛 𝑝𝑛+ 𝑞 𝑛− = (𝑝 ) ∑ 𝑝𝑛+ 𝑞 𝑛−
𝑛+ ! 𝑛− ! ∂𝑝 𝑛+ ! 𝑛− !
𝑛+ =0 𝑛+ =0

O somatório do lado direito representa a expansão de (p+q)N, ou seja:



̅̅̅+̅ = (𝑝
𝑛 ) (𝑝 + 𝑞)𝑁 = 𝑁𝑝(𝑝 + 𝑞)𝑁−1 = 𝑁𝑝
∂𝑝
Uma vez que p+q = 1.

1
Para n+2, tem-se:
𝑁 𝑁
̅̅̅̅̅
2 = ∑ 𝑛 2
𝑁! 𝑛+ 𝑛−
∂ ∂ 𝑁!
𝑛 + + 𝑝 𝑞 = (𝑝 ) (𝑝 ) ∑ 𝑝𝑛+ 𝑞 𝑛−
𝑛+ ! 𝑛− ! ∂𝑝 ∂𝑝 𝑛+ ! 𝑛− !
𝑛+ =0 𝑛+ =0

Ou seja (usando já alguns resultados obtidos no cálculo de 𝑛


̅̅̅+̅):

̅̅̅̅̅ ∂
𝑛+2 = (𝑝 ) 𝑁𝑝(𝑝 + 𝑞)𝑁−1 = 𝑝[𝑁(𝑝 + 𝑞)𝑁−1 + 𝑁𝑝(𝑁 − 1)(𝑝 + 𝑞)𝑁−2 ] ⇔
∂𝑝
⟺ ̅̅̅̅̅ 𝑛+ 2
𝑛+2 = 𝑁𝑝(1 − 𝑝) + 𝑁 2 𝑝2 = 𝑁𝑝𝑞 + ̅̅̅̅

̅̅̅̅̅̅̅̅̅
(Δ𝑛 2 ̅̅̅̅2 𝑛+ 2 = 𝑁𝑝𝑞
+ ) = 𝑛+ − ̅̅̅
Para m, partindo da equação (1), tem-se:

𝑚 ̅̅̅+̅ − 𝑁 = 2𝑁𝑝 − 𝑁 = 𝑁(2𝑝 − 1) = 𝑁(𝑝 − 𝑞)


̅ = 2𝑛
Δ𝑚 = 2Δ𝑛+ ⇒ (Δ𝑚)2 = 4(Δ𝑛+ )2 ⟺ (̅̅̅̅̅̅̅̅
Δ𝑚)2 = 4(̅̅̅̅̅̅̅̅̅
Δ𝑛+ )2 = 4𝑁𝑝𝑞
O desvio padrão de n+ e a sua largura relativa são dados por:

̅̅̅̅̅̅̅̅̅̅̅2
𝜎𝑛+ = √(Δ𝑛+ ) = √𝑁𝑝𝑞

𝜎𝑛+ √𝑁𝑝𝑞 1 𝑞
= = √
̅𝑛̅̅+̅ 𝑁𝑝 √𝑁 𝑝

2
Alíneas principais
a)
i) Para p=q, obtiveram-se os seguintes gráficos de barras:

ii) Já para p=4q, os resultados foram os seguintes:

3
Algumas notas acerca da apresentação destes 8 gráficos:
• Todos foram construídos usando a funcionalidade
matplotlib.pyplot.bar, com os valores de m no eixo dos x
e com o parâmetro “height” igual a WN (m);
• No caso de N=5, as larguras das barras foram ainda
ajustadas manualmente para 0.5 para reforçar o facto de
que m se trata de uma variável apenas com valores
inteiros;
• No caso de N=1001, a janela de visualização foi alterada
para incluir apenas uma região de ±100 do valor médio
(que será discutido na alínea seguinte). Isto faz com que
o gráfico pareça estar centrado mesmo no caso de p=4q,
mas é importante salientar que a janela de visualização
não está centrada em 0. Esta medida foi tomada uma vez
que, fora desta região, a expressão binomial tem
resultados praticamente negligíveis, logo, a apresentação
de todo o eixo Ox desde -N a +N dificultaria a
visualização do gráfico.

b) Para as médias e desvios quadráticos médios, obtiveram-se os


seguintes valores:

𝑛
̅̅̅+̅ 𝑚
̅ ̅̅̅̅̅̅̅̅̅
(Δ𝑛+ )2 (̅̅̅̅̅̅̅̅
Δ𝑚)2
N
p=q p=4q p=q p=4q p=q p=4q p=q p=4q

5 2.5 4 0 3 1.25 0.8 5 3.2

21 10.5 16.8 0 12.6 5.25 3.36 21 13.44

101 50.5 80.8 0 60.6 25.25 16.16 101 64.64

1001 500.5 800.8 0 600.6 250.25 160.16 1001 640.64

Estes valores foram determinados fazendo uma média pesada dos


vários valores de n+ e de m, em que os pesos foram os valores
correspondentes de W (n+) e W (m).

4
Na verdade, os valores obtidos não foram exatamente estes,
contendo alguns erros. No entanto, eram de uma ordem de
grandeza tão baixa comparativamente ao que está apresentado na
tabela que puderam ser atribuídos à natureza dos cálculos com
floats do python e, consequentemente, ignorados.

Todos os valores apresentados nesta tabela coincidem com os que


se obteriam aplicando diretamente as fórmulas derivadas nas
questões de apoio. Sendo assim, verifica-se que, pelo menos no que
toca ao cálculo das probabilidades através da fórmula binomial e
seu subsequente uso para determinar médias e desvios padrão, o
programa está a funcionar devidamente.

c) Após a construção dos gráficos de barras e obtenção das médias e


desvios quadráticos médios, ajustaram-se gaussianas às
distribuições binomiais, utilizando a expressão:

̅̅̅̅)
(𝑛 −𝑛 2 (𝑛 −𝑁𝑝) 2
1 − + + 1 − +
𝑊𝑁 (𝑛+ ) = √ ̅̅̅̅̅̅̅̅̅2 𝑒 2𝑁𝑝𝑞 =√ 𝑒 2𝑁𝑝𝑞
2𝜋(Δ𝑛+ ) 2𝜋𝑁𝑝𝑞

Mais uma vez, para se obter o valor de WN (m) correspondente,


basta substituir n+ por (N+m)/2, obtendo-se:

𝑁+𝑚
[ −𝑁𝑝]2 [𝑚−𝑁(𝑝−𝑞 )] 2
1 − 2 1 −
𝑊𝑁 (𝑚) = √ ̅̅̅̅̅̅̅̅̅2 𝑒 2𝑁𝑝𝑞 =√ 𝑒 8𝑁𝑝𝑞
2𝜋(Δ𝑛+ ) 2𝜋𝑁𝑝𝑞
(Nota: Na construção destas gaussianas, usar-se-ão as expressões da esquerda, isto
é, colocar-se-ão diretamente as médias e os desvios quadráticos médios calculados
em b) nos parâmetros da função de python. Caso contrário, o seu cálculo na alínea
anterior teria sido redundante).

Ao apresentar os gráficos obtidos, reiteram-se as notas da alínea a)


(à exceção de que, desta vez, os gráficos para N=101 e N=1001
serão ampliados para uma região de ±3 desvios-padrão do valor
médio). Para além disso, será ainda feita posteriormente uma
ampliação adicional aos gráficos N=1001 para efeitos de
exemplificação. Dito isto, obtiveram-se os seguintes resultados:

5
Antes de comentar os resultados obtidos nestes gráficos, é
fundamental delinear alguns aspetos acerca deste ajuste:
• A primeira aproximação feita é a de considerar que, para valores
de n+ e m suficientemente grandes, WN não varia
significativamente para valores muito próximos do valor médio
e, portanto, pode ser considerada uma função contínua de
variável contínua (isto é, |𝑊 (𝑛
̅̅̅+̅ + 1) − 𝑊 (𝑛
̅̅̅+̅)| ≪ 𝑊(𝑛
̅̅̅+̅));

6
• Partindo da suposição anterior, o máximo de W N pode ser
𝑑𝑊 𝑑𝑙𝑛 (𝑊)
descrito pela condição = 0 (ou = 0), podendo-se
𝑑𝑛+ 𝑑𝑛+
então fazer uma expansão em série de potências em torno de ̅𝑛̅̅+̅;
• Ao expandir ln (W) em série de potências em torno do valor
médio, o termo de primeira ordem será nulo, por se estar a
expandir em torno de um máximo. A gaussiana obtém-se
considerando apenas os termos de ordem 0 e 2, situação na qual
se obtém:
|𝐵2 | 2 𝑑 2 ln (𝑊)
𝑛 + )𝑒 −
𝑊𝑁 (𝑛+ ) = 𝑊 (̅̅̅̅ 2
𝜂
, 𝐵2 =( ) , 𝜂 = 𝑛+ − ̅̅̅̅
𝑛+
𝑑𝑛+ 2 𝑛 ̅̅̅̅
+ =𝑛 +

Assim sendo, a aproximação da expressão binomial à gaussiana será


válida se os termos de ordem superior a 2 forem negligíveis, o que se
traduz pela condição 𝜂 ≪ 𝑁𝑝𝑞. Por outro lado, o expoente da
exponencial tem de ser elevado, por forma a garantir que WN cai
rapidamente em regiões mais afastadas do valor médio, conduzindo à
condição 𝜂 ≫ √𝑁𝑝𝑞 (ref. [1]).
Em regiões mais próximas do valor médio, esta cláusula de
decréscimo rápido da função já não é tão importante, tendo em conta
a primeira aproximação que foi feita (assumir que W não varia
significativamente próximo do seu valor máximo). Deste modo, se
Npq for tal que se admitam valores de 𝜂 que respeitem as duas
condições simultaneamente (o que, simplificando, quer dizer que
Npq>>1), então, numa região de probabilidade apreciável, a gaussiana
aproximará bastante bem a distribuição binomial de probabilidade.

Em primeira análise, a característica que mais se salienta é o contraste


que há na qualidade dos ajustes para p=q e p=4q, sendo os primeiros
consideravelmente melhores que os segundos. De facto, tendo em
conta que, no primeiro caso, pq=0.25, ao passo que, no segundo,
pq=0.16, torna-se evidente que, para um produto pq mais reduzido,
será necessário um valor de N maior para que se cumpra a condição
exposta no parágrafo anterior. Para o mesmo valor de N, se pq
diminuir, a qualidade do ajuste diminuirá também.
O segundo aspeto mais relevante é a melhoria do ajuste com o aumento
do valor de N, o que pode ser explicado de forma semelhante: N maior

7
conduz a um maior valor de Npq, o que facilita a existência de valores
de 𝜂 que cumpram os dois requisitos supramencionados.
No entanto, mesmo para N=1001, o ajuste não é completamente
fidedigno, sobretudo para p=4q. Na verdade, a cláusula Npq>>1
assegura que Npq e √𝑁𝑝𝑞 estarão em ordens de grandezas muito
distintas, que é o que permite que se respeitem simultaneamente 𝜂 ≪
𝑁𝑝𝑞 e 𝜂 ≫ √𝑁𝑝𝑞.

Npq (N=1001) √𝑁𝑝𝑞 (N=1001)

p=q 250.25 15.8

p=4q 160.16 12.7

Tal como mostra esta tabela, Npq e a respetiva raiz, mesmo para o
valor de N mais alto, estão apenas a uma ordem de grandeza de
distância. Ampliando agora os gráficos de N=1001, poderá ser
discutida uma última observação a respeito destes resultados:

No caso de p=4q, não só a gaussiana não se ajusta tão bem ao gráfico


de barras, como os erros cometidos nesta aproximação são de natureza
diferente para valores à esquerda e à direita do máximo de W (m). Para
valores abaixo de 𝑚 ̅ , os erros cometidos são por excesso, enquanto
que para os valores acima de 𝑚 ̅ se cometem erros por defeito. Este
resultado pode ser explicado se considerarmos que, embora a
gaussiana seja simétrica em torno do valor máximo, a distribuição
binomial não será se 𝑝 ≠ 𝑞 – neste caso particular, como p é maior, a
probabilidade de um deslocamento para a direita é superior, logo,
desvios para a direita em relação à média serão mais prováveis que
desvios para a esquerda.

8
Por conseguinte, partindo do valor médio e andando para a esquerda,
as probabilidades caem de forma mais abrupta, e a gaussiana, sendo
incapaz de acompanhar a queda, comete erros por excesso. Em
contrapartida, indo da média para a direita, a gaussiana decresce
demasiado rápido, cometendo erros por defeito.

Por último, para retificar uma aparente incongruência nesta análise:


foram vistos os gráficos de WN (m), mas as condições de aproximação
da gaussiana foram estabelecidas tendo em conta WN (n+), o que não
parece correto. No entanto, se considerarmos que a um desvio 𝜂 em n+
corresponde o dobro do desvio em m, e que:
𝑑 𝑘 ln (𝑊) 𝑘
𝑑 𝑘 ln (𝑊)
( ) =2 ( )
𝑑𝑛+ 𝑘 𝑛 ̅̅̅̅
𝑑𝑚𝑘 ̅
+ =𝑛 + 𝑚=𝑚

Então as restrições sobre 𝜂 que permitem aproximar a gaussiana ao


gráfico de barras são as mesmas para m e n+.

Referências
[1] Reif, Statistical and Thermal Physics, McGraw-Hill, pp. 19-20,
1965.

Você também pode gostar