Escolar Documentos
Profissional Documentos
Cultura Documentos
Maratona de Certificação
Technical SEO Exam II
Hora do treinamento!
One click at a time
O problema geral das diretivas de indexação é que elas funcionam de maneira muito diferente uma da
outra e geralmente produzem resultados diferentes.
Se você usar o arquivo robots.txt e bloquear algo, esses URLs não serão rastreadas, mas serão
parcialmente indexados e, portanto, serão mostrados nos resultados de pesquisa do Google
(normalmente o Google mostra apenas o título e o URL sem uma descrição).
Se você usar a metatag robots, por outro lado, os URLs serão rastreados, mas não serão indexados - se
você aplicar um noindex, é isso. Portanto, eles não serão mostrados nos resultados da pesquisa.
"Eu realmente preciso que esta URL seja indexado?
Isso agrega algum valor significativo a alguém que encontrar essa URL?"
Se você usar o robots.txt para bloquear um arquivo ou diretório específico e também tentar usar a tag
meta robots para bloqueá-lo, para que não possa ser encontrado nos resultados da pesquisa, ele não
funcionará.
O motivo é que o Googlebot ou outros rastreadores não conseguem acessar sua URL, por estarem
bloqueados no robots.txt - portanto, eles não podem ler nenhuma diretiva de indexação em potencial - e
simplesmente não veem seu "noindex", mesmo que esteja presente.
"Eu realmente preciso que esta URL seja indexado?
Isso agrega algum valor significativo a alguém que encontrar essa URL?"
Em primeiro lugar, é importante definir e entender o que você deseja alcançar. É sobre rastreamento
(recursos) ou indexação? Se você deseja reduzir o número de URLs que estão sendo indexados, a tag de
meta robots e um índice de indexação nessas páginas seria a abordagem correta.
De um modo geral, o melhor arquivo robots.txt é minimalista. Tente quase não usá-lo para controle de
rastreador, a menos que realmente precise.
Aqui estão alguns exemplos de URLs que você não deve permitir a indexação:
Não indexar versões diferentes da mesma URL criada por filtragem e outros tipos de
02 conteúdo sendo reorganizados, por exemplo, classificando uma lista para cima e para
baixo. Eles têm o mesmo alvo de classificação.
Isso também se aplica a quase todos os tipos de "páginas sem resultado", você não
04 deseja que elas sejam indexadas.
Certifique-se também de não indexar várias versões de uma página (por exemplo,
05 “index.php” vs “/” ou “não www “vs. “www” ou “HTTPs” vs “não HTTPs”) ou para o mesmo
conteúdo em domínios ou subdomínios diferentes. Tudo isso não agrega valor, mas
enche o índice do Google.
Verdadeiro ou falso? A recomendação geral é usar um robots.txt altamente
detalhado para o controle do rastreador.
Verdadeiro ou falso? A recomendação geral é usar um robots.txt altamente
detalhado para o controle do rastreador.
FALSO
Os tipos diferentes de filtros geralmente criam tipos diferentes de URLs. E, na maioria dos casos, cada
combinação de filtro também possui sua própria URL exclusiva. Da perspectiva do Google, precisa
rastrear todas elas - porque ele não sabe se todas têm conteúdo importante e exclusivo neles - ou não.
Mas quase sempre essas são versões duplicadas de um URL que podem levar a milhões e milhões de
outras URLs, dependendo da quantidade de categorias e combinações de filtros.
É um pesadelo do ponto de vista de rastreamento e a maioria dessas URLs não teria demanda de
pesquisa suficiente. Em vez de deixar o Google rastrear tudo isso, podemos implementar o que é
chamado de PRG (Post-Redirect-Get pattern).
PRG
O Google não executa ou envia formulários que usam o método de postagem. Você usaria o Javascript
para enviar um formulário de postagem e enviá-lo para um controlador.
O controlador então redireciona para um URL GET limpo que você também pode usar para pesquisa
paga (se realmente precisar). O Google não segue a solicitação de post, portanto, para o Google - e da
perspectiva clássica de rastreamento - esse URL não está presente, porque não está vinculado a
nenhum lugar.
Essa implementação não desperdiça nenhum link equit porque não é mais uma tag de link A-HREF.
PRG
Um grande benefício do uso do PRG é que ele é um mecanismo de controle sobre como distribuir o
valor do link interno.
Se você vincular todos esses tipos diferentes de filtros ou variantes diferentes, e se essas páginas de
destino tiverem sido colocadas no noindex como deveriam, isso causará a perda do link equit - porque
muitos links direcionam para URLs que não são indexados .
Esse não é o caso, pois o envio via post nem usa uma tag de link, portanto, é uma boa maneira de
aprimorar o fluxo de links.
PRG - Na prática
Com o PRG, o navegador acaba fazendo duas solicitações. A primeira solicitação é uma
01 solicitação POST e geralmente é usada para modificar dados.
03 Isso faz com que o navegador seja redirecionado para um nova URL.
04 O navegador faz uma solicitação GET para o novo URL que responde com o conteúdo HTML que
o navegador renderiza.
O que é PRG?
O que é PRG?
Post-Redirect-Get pattern
No contexto do comércio eletrônico, não há razão para você ter a página 2 da categoria sendo indexada.
Você deseja que as pessoas acabem na primeira página desta categoria, pois os produtos mais
vendidos estão lá. Anteriormente você aplicava o noindex a qualquer coisa que não esteja na página 1 e
pronto.
A solução de hoje é usando os atributos rel = "next" e rel = "prev"*. A lógica do Google é que você
conecte todas as páginas existentes em uma cadeia usando os atributos rel. Para simplificar, explica ao
Google qual página da cadeia vem a seguir ou apareceu antes dela.
Boas práticas com paginação:
Não use a tag “nofollow” nas páginas 2+, ao longo prazo o Google pode desindexar
01 toda a cadeia de links.
03 Certifique-se de que a tag canônica não aponte para trás das páginas 2,3,4 para a
página 1. Se você estiver na página 2, deve apontar para a página 2. As páginas de
produtos vinculadas da página de categoria 2+ não receberão o valor do link se você
canonizar tudo da página 1.
Boas práticas com paginação*
Lembre-se de que uma tag canônica deve apontar para si mesma e, no caso
de paginação, usá-la para retornar à URL1, irá danificar todos os seus esforços.
X-robots Header
Cabeçalho X-robots
Um dos problemas com o Google ser muito ganancioso e tentar rastrear e indexar quase todos os tipos
de arquivos e URLs que encontrar, é que eles também tentarão indexar PDFs ou até formatos binários
como documentos do Word, planilhas do Excel etc.
O problema com esses arquivos é que você não pode implementar metatags e não pode simplesmente
acessar o HTML porque não há HTML. Portanto, você não pode aplicar um noindex como faria
normalmente.
O problema fica ainda maior se você pensar não apenas em arquivos, mas também em fragmentos
como objetos Json ou partes de chamadas AJAX ou qualquer coisa processável pelo Googlebot.
Precisamos de uma maneira de informar ao Google e a outros mecanismos de
pesquisa como lidar com arquivos não HTML. E foi por isso que o Google
introduziu as diretrizes dos X-robots. Existem três tipos:
O primeiro é uma tag de robô X. A idéia é que você pode aplicar um noindex não
apenas através de uma meta tag em HTML, mas também através de um cabeçalho
de servidor. Se você possui um tipo de arquivo que não é HTML, mas não deseja
mostrá-lo nos resultados da pesquisa, pode fazer a mesma anotação com os
01 mesmos valores e aplicá-la no servidor da web. A sintaxe depende do tipo de
servidor da web que você está usando. Se for o Apache, você pode, por exemplo,
fazê-lo no htaccess ou, se estiver no NGINX, pode fazê-lo na configuração do
servidor.
Outro cabeçalho que foi introduzido um pouco mais tarde é chamado X-robots
Rel-Canonical. O que acontece se, por exemplo, você tiver um PDF que seja um white
paper e a mesma versão em HTML no seu site? Um PDF pode ser vinculado mais
forte externamente. Isso torna muito provável que o Google mostre o PDF nos
resultados da pesquisa.
Você pode usar um cabeçalho rel-canônico do robô X; você pode definir uma tag
canônica para este PDF específico no nível do servidor usando o cabeçalho e não
uma tag HTML e, em seguida, apontar do PDF para a versão HTML. Mesmo que o
PDF seja mais relevante ou mais vinculado, nos resultados da pesquisa o Google irá
classificar a versão HTML.
Também deve ser mencionado que o hreflang - que abordaremos em mais detalhes
03 mais à frente, também pode ser aplicado usando cabeçalhos de servidor.
Geralmente, as diretivas X-robots são destinadas a tudo que não é HTML. No entanto, se você não
quiser, não precisará usar anotações HTML. Você pode controlar tudo no nível do servidor.
Lembre-se de que algumas das ferramentas de rastreamento ainda não são realmente capazes
de mostrar diretivas nos cabeçalhos do servidor - portanto, pode haver problemas com elas.
Mas da perspectiva do Google, não importa se você usa HTML ou no lado do servidor.
Cabeçalho X-robots na prática usando .htacesss
Cabeçalho X-robots na prática usando Nginx
As diretivas X-robots facilitam os mecanismos de pesquisa a lidar com arquivos PDF.
As diretivas X-robots facilitam os mecanismos de pesquisa a lidar com arquivos PDF.
Verdadeiro
Esses campos transmitem os parâmetros e argumentos que são importantes para a transferência de
arquivos via HTTP, por exemplo, o idioma desejado, o conjunto de caracteres ou muitas vezes
informações sobre um cliente em geral. Os campos individuais do cabeçalho são sempre transferidos
após a linha de solicitação ou a linha de resposta.
Existem muitos campos de cabeçalho diferentes; muitos deles não são realmente relevantes para um
trabalho de SEO. O que precisamos entender e ter em mente é que os cabeçalhos são invisíveis para os
usuários comuns, para que eles não os vejam enquanto visitam seu site. Mas, de uma perspectiva de
SEO, é importante entender quais cabeçalhos estão presentes e quais foram enviados de volta do
servidor.
Campos de cabeçalho HTTP
Uma das maneiras mais fáceis de fazer isso é usar o Chrome Developer Console. Depois de
abrir o console, vá para a guia rede e selecione um URL no lado esquerdo. No lado direito, há
a subguia "Cabeçalhos". Você pode ver a solicitação e as respostas, respectivamente, e
também quais tipos de pares de valores-chave foram enviados e voltados.
Campos de cabeçalho HTTP
Se você não quiser fazê-lo no navegador e talvez prefira um site ou geralmente um serviço
que possa verificar vários URLs de uma só vez, o http://httpstatus.io é muito útil.
De uma perspectiva de SEO, existem quatro grupos de cabeçalhos que são realmente relevantes:
04 Last, but not least, HTTP status code: e.g. 200=success, 3xx=redirects, 4xx=not available
(anymore) & site in maintenance etc.
Campos de cabeçalho HTTP
Redirecionamentos são uma das coisas mais importantes em SEO. O motivo é que sempre que a
estrutura de URL de um site muda de uma maneira que um URL não seria mais acessível, você precisa de
um redirecionamento. Caso contrário, você perderia sua classificação orgânica e, finalmente, seu tráfego
orgânico.
Para produtos de consumo, as soluções geralmente são muito mais complexas, pois linhas específicas
podem estar "temporariamente indisponíveis" e um destino de redirecionamento não é imediatamente
claro. Produtos mais recentes (em uma série de produtos), os mesmos produtos (mas com cores,
tamanhos, materiais, etc.) diferentes ou produtos similares (por exemplo, por meio de pesquisa interna)
podem ser destinos de redirecionamento viáveis. Se não estiver claro qual deve ser o melhor destino de
redirecionamento, pense na proximidade temática - e você encontrará a melhor resposta.
Usos frequentes de redirecionamento:
Redirecionamento Redirecionamento
302 temporário
308 permanente RFC
Se você não usa 301s, isso pode levar à perda de posições importantes sem substituição. O que poderia
causar uma perda significativa na visibilidade e no tráfego da pesquisa orgânica. Sem um 301, os links
externos recebidos e seu valor não são transferidos para uma nova URL. Uma nova URL teria primeiro de
se afirmar contra a concorrência, colocando-o em extrema desvantagem.
Métricas importantes, como a popularidade do link por URL e as informações históricas desse URL serão
perdidas, e você não deseja isso. Faça o que fizer, se você se importa com as classificações, um
redirecionamento 301 é a melhor solução para manter o status quo enquanto altera uma URL.
Redirecionamentos
Demora um pouco até que todos os sinais sejam totalmente transferidos de um URL para outro, mesmo
que a maioria deles seja passada logo após o redirecionamento. Isso é especialmente importante se você
alterar muitas coisas ao mesmo tempo - por exemplo, em um cenário de migração. Depois, pode levar
algumas semanas ou até meses até que o Google tenha tudo resolvido novamente e você se beneficiará
totalmente do seu redirecionamento 301. Portanto, seja paciente - pode levar algum tempo até você se
classificar com a mesma força de antes.
Também fique de olho em cadeias de redirecionamento. Eles geralmente acontecem por razões históricas
(uma URL é redirecionado para outra e este continua para a próxima). Essa não é a melhor ideia do ponto
de vista de desempenho ou de uma perspectiva de crawl budget.
Convém obter informações sobre os problemas de redirecionamento mais
comuns que podem prejudicar a classificação do seu site usando as seguintes
verificações da Auditoria do site do SEMrush:
Em comparação, o HTTP 410 se foi e sugere que o recurso solicitado não está disponível e nunca estará
disponível novamente. Deve ser usado quando o recurso foi removido intencionalmente.
Um bom ponto de partida para verificar se seu domínio tem problemas com o 404’s é usar o Google Search
Console - eles têm um ótimo relatório. Lembre-se, porém, que ter alguns 404’s é natural, não se preocupe
muito com isso. Não se desespere e nem se concentre muito em atingir zero 404’s - na realidade, isso
raramente pode ser alcançado.
Soft-404
Um caso especial que existe apenas com o Google. O conceito é que você indica uma URL com HTTP 200
sugerindo que está tudo bem, mas, na realidade, esta página não deveria ter retornado 200, mas sim 404. O
Google sinaliza-o no Search Console sempre que eles acham que a URL que você indicou como OK não
está bem. Isso pode indicar problemas de qualidade do conteúdo ou simplesmente que você precisará
reconsiderar estratégias de indexação para as páginas que o Google realmente sinalizou como Soft-404.
O que acontece se o Google atingir 404?
O rastreador tentará solicitar essa URL e o servidor dirá - OK, este é um 404, a URL não existe. Isso significa
que eles não podem mais processá-lo. Isso será observado no grande banco de dados de URLs do Google.
E será isso por enquanto.
Se esta URL estiver acessível e tiver sido indexado anteriormente, nada acontecerá imediatamente. Essa
URL ainda permanecerá no índice do Google e basicamente eles voltam e tentam rastrear novamente. E de
novo e de novo.
O novo rastreamento continuará até que eles decidam que “Este 404 voltou por mais de uma semana ou
mais. No entanto, sempre que abro a URL, ele não existe e continua com um 404. Portanto, removerei do
índice por enquanto”. Esse novo rastreamento frequente acontece até que eles sejam retirados de vez
índice. Faz sentido se você pensar sobre isso, pois o 404 poderia ter sido enviado por acidente. Ou o
conteúdo não deveria ter sido excluído em primeiro lugar.
Convém obter informações sobre os problemas de redirecionamento mais
comuns que podem prejudicar a classificação do seu site usando as seguintes
verificações da Auditoria do site do SEMrush:
O erro 404 sugere que a página da web solicitada não foi encontrada.
5XX: Manipulação e Manutenção de Erros Server-side
(incluindo o cabeçalho de nova tentativa)
Erros no Servidor
Estamos falando agora sobre o intervalo do código de status 5xx, e esse geralmente é um erro no servidor.
Os mais comuns e os mais relevantes do ponto de vista de SEO são 500. Esse é um erro interno do
servidor e uma mensagem de erro genérica que é fornecida quando algo inesperado acontece.
Outro é o HTTP 503, que significa "serviço indisponível" . Isso acontece quando o serviço está indisponível
no momento, por exemplo, devido à manutenção ou se está sobrecarregado. Geralmente deve ser
temporário.
Erros no Servidor
Vamos falar sobre por que a manutenção é tão importante do ponto de vista de SEO. O que pode acontecer
é que seu site foi indexado e tudo está indo bem, quando de repente você precisa entrar no modo de
manutenção, pode ser necessário atualizar algo ou alterar a infraestrutura do servidor. Portanto, o
conteúdo para o qual você está classificado no momento não está acessível durante esse período.
Infelizmente, o trabalho de manutenção nem sempre pode ser evitado - além de considerações comuns
(como quando isso causa menos interrupções para os usuários?, disponibilidade dos funcionários à noite?
Etc.), também há algumas preocupações de SEO a serem lembradas.
Embora o site não possa ser acessado, o código de status HTTP 503 (Serviço
não disponível) sempre deve ser usado. Pense sempre nesses tópicos:
Sites usando o código de status HTTP 200 enquanto estavam em manutenção. Isso significa
01 que, para o Google, tudo deve ficar bem. O que acontecerá quando você exibir uma quantidade
muito limitada de conteúdo totalmente diferente? Os robôs classificaram o site com a
mensagem de manutenção.
02 Você também não deve bloquear o rastreador usando robots.txt e outros meta-robôs "noindex"
SEO Internacional
Introdução e configuração de domínios
multi / internacionais
Palavras-chave
O grande erro que acontece o tempo todo é que as pessoas tentam simplesmente traduzir
palavras-chave. Claro, todos os mecanismos ainda funcionarão e retornarão resultados com base no
que você coloca, mas você está claramente perdendo. Quando você traduz uma palavra-chave para
outro idioma, ela pode ter um significado semelhante, sem ser exatamente o mesmo.
Além disso, simplesmente traduzindo palavras, você perde sinônimos. Dependendo do idioma, pode
haver várias palavras para descrever a mesma coisa: Por exemplo, as palavras "seguro de carro" têm até
três variações diferentes na Alemanha. Se você apenas traduzi-los, estará perdendo uma quantidade
significativa de tráfego de pesquisa em potencial.
Como uma observação lateral, é ainda mais importante entender as diferenças culturais. Há uma
percepção diferente da cor em muitas culturas. Essas diferenças precisam ser consideradas ao criar
presenças locais, criar cópias de anúncios locais, meta descrições etc.
Existem duas maneiras diferentes - ou melhor, três mencionadas - de como
servir domínios internacionais:
Quando você tem tipos diferentes de ccTLDs, pode usar domínios de nível superior com
01 código de país, como domainname.fr, domainname.es.
Ou você também pode ter um TLD genérico, por exemplo, domainname.com. Com .com, você
02 pode optar por usar pastas específicas de país e idioma nesse .com ou semelhante à
Wikipedia, para criar subdomínios específicos de idioma. Portanto, usando o gTLD, você
deverá selecionar entre subpastas ou subdomínios - dependendo de suas necessidades.
ccTLDs x gTLDs
ccTLDs
(domínio de topo de código de país) :
.ao , .br, .cv, .gw, .mo, .mz, .pt, .st, .tl
gTLDs
(domínio de topo genérico) :
.net , .org, .tel, .travel, .xxx, .museum, .mobi,
.edu, .gov, .info
ccTLDs x gTLDs
Além disso, o gTLD provavelmente já tem alguma confiança. É muito mais fácil passar isso para as
subpastas, em vez de vincular seus ccTLDs ou mesmo os subdomínios. Do ponto de vista da equidade
do link de entrada, a abordagem global dos gTLDs é mais eficiente. Você não precisa de nenhuma
funcionalidade multi site, como seria o caso de subdomínios no gTLD.
ccTLDs x gTLDs
A recomendação da SEMrush é ir para .com como um gTLD e estabelecer o idioma e/ou subpastas
específicas de cada país. Certifique-se de usar os recursos fornecidos pelos mecanismos de pesquisa.
Por exemplo, o Google pode configurar propriedades individuais com base nos diretórios de idioma ou
país, e você também pode fazer a segmentação geográfica individual.
No passado, havia um problema de falta de sinais geográficos fortes, mas hoje em dia você pode
substituí-lo pelo GSC - o que realmente ajuda a direcionar a região que você deseja. Também
certifique-se de implementar corretamente o hreflang.
Qual abordagem nas configurações de domínio internacional
é mais eficiente do ponto de vista da equidade do link de entrada?
Qual abordagem nas configurações de domínio internacional
é mais eficiente do ponto de vista da equidade do link de entrada?
gTLD único
A vantagem de um gTLD é
que você não precisa mexer
em domínios diferentes e
todo o patrimônio do link
de entrada está apontando
para apenas um único
domínio.
Redirecionamentos geográficos e CDNs
Redirecionamentos geográficos e CDNs
Outro aspecto muito importante do SEO internacional é lidar com solicitações internacionais de
diferentes regiões geográficas. Lembre-se de que essas solicitações não são apenas as que os usuários
fazem (que, esperamos, acabam na versão mais apropriada para o idioma ou país). Também é
importante saber como lidar com os rastreadores de mecanismos de pesquisa.
Por exemplo, o Googlebot rastreia principalmente dos Estados Unidos. Vamos considerar o seguinte
cenário: Se eu estivesse fisicamente na Alemanha e tentasse acessar seu site nos EUA, então - se você
estivesse usando redirecionamentos geográficos com base no meu endereço IP de discagem - eu seria
redirecionado automaticamente para o seu site em alemão. E tecnicamente falando, tudo bem. É
importante entender que o Google quase sempre rastreia dos EUA. Portanto, se você tivesse algum tipo
de restrição geográfica no site alemão que não permitisse tráfego nos EUA, isso poderia causar um
enorme problema, pois esse domínio não seria rastreado pelo Googlebot.
Redirecionamentos geográficos e CDNs
Para SEO internacional, as CDNs são importantes se você deseja oferecer uma experiência rápida. Se
você servir em várias regiões (Ásia, EUA e Europa), não será suficiente hospedar em um único local, pois
a latência dessas respostas do servidor é simplesmente muito alta. É aqui que uma rede de entrega de
conteúdo (também conhecida como CDN) pode entrar em ação.
Infelizmente, não existe uma solução única para todos . Além disso, lembre-se de que, se você deseja ter
sucesso na China, precisa ter hospedagem local. Caso contrário, não há como você ser classificado na
China, seja qual for. Portanto, mesmo se você tiver uma CDN, não é uma solução viável para alguns
mercados.
Redirecionamentos geográficos e CDNs
Quando seu site começa a receber tráfego significativo dos sites estrangeiros do Google e você tem a
capacidade de atender a esses países internacionais, é hora de implementar uma versão internacional do
seu site e desenvolver ainda mais sua estratégia internacional de SEO.
As tags Hreflang informam ao Google qual versão do site deve ser exibida em qual país. Ele garante que a
versão do idioma correto do site seja mostrada ao usuário certo no país correto. Essencialmente, é uma
maneira de criar uma melhor experiência do usuário.
A abordagem mais simples é ter versões específicas do idioma. Você tem um site para todas as pessoas
que falam alemão, um site para todas as pessoas que falam inglês e pode ter outro para pessoas que
falam francês. No entanto, todos entendemos que o alemão na Alemanha pode ser diferente do alemão
na Suíça, o mesmo se aplica ao inglês nos Estados Unidos e ao inglês no Reino Unido; portanto, você
provavelmente acabará combinando diretórios regionais e específicos de idiomas.
Hreflang
Há também uma diretiva especial chamada x-default . Se você estiver procurando por uma solução de
recuperação de falhas em todos os idiomas, isso pode ajudar. Digamos que você esteja servindo a
Espanha e a Itália, então você configurou dois hreflangs para eles. Agora, vamos supor que você tenha
um site em inglês no qual gostaria que todos os outros utilizassem a versão inglês como substituta.
Nesse caso, o x-default seria muito útil.
Valide sempre a implementação da tag para evitar problemas futuros. A ferramenta de auditoria da
SEMrush consegue identificar os problemas relacionados a Hreflang para facilitar na correção rápida.
Verdadeiro ou falso? Os sitemaps XML não são uma boa maneira
de controlar e gerenciar configurações do hreflang.
Verdadeiro ou falso? Os sitemaps XML não são uma boa maneira
de controlar e gerenciar configurações do hreflang.
Falso
Desempenho da Web
Introdução à Otimização do Desempenho da Web,
Métricas / Medidas / Ferramentas
Introdução à velocidade da página
O Google vem pressionando por sites de carregamento rápido há um tempo. Da minha perspectiva o
desempenho é principalmente um tópico de experiência do usuário, se houver. Sendo efetivo, ele ajuda no
SEO, oferecendo rastreamento, indexação e eficiência melhores e mais rápidos. Mas você deve criar um
site de carregamento rápido, porque se preocupa com os usuários em primeiro lugar e não quer que eles
esperem.
De acordo com um relatório da Nielsen, 47% das pessoas esperam que um site seja carregado dentro de
dois segundos e 40% sairão de um site se não carregar totalmente dentro de três segundos. Na verdade,
não há muito espaço para erros. 100ms podem fazer uma grande diferença. A Amazon conseguiu
aumentar o desempenho, por exemplo, a cada 100ms, eles cresceram + 1% em receita. Estes são
números realmente impressionantes.
Vejamos algumas das ferramentas essenciais que você deve conhecer quando falamos sobre velocidade
da página. Nos últimos anos, o Google promoveu fortemente sua ferramenta Pagespeed Insights . Você
pode conectar um determinado URL e fornecer uma visão geral muito aproximada de onde você está. A
ferramenta retorna uma pontuação de 0 a 100 e faz algumas recomendações que você pode ou não
seguir - dependendo do que elas encontrarem no seu site. Essas recomendações são apenas
parcialmente acionáveis. Além disso, muitas vezes não está claro qual seria o ROI de uma melhoria de 87
para 88. Então, sim, é um ponto de partida - mas é isso.
Outra solução é o Webpagetest.org - e na verdade tem tudo o que você precisa para iniciar o trabalho de
otimização de desempenho. Ele fornece muitas métricas diferentes, informações sobre compactação,
armazenamento em cache e recomendações especiais sobre como otimizar suas imagens.
Eles também têm um diagrama em cascata super detalhado, onde você pode ver como a página está
carregando e quais são as dependências uma da outra. Também visualiza detalhes como pesquisas de
DNS, períodos de bloqueio e muito, muito mais. Eles ainda têm uma exibição de tira de filme - um vídeo
em que você pode ver como o site está se desenvolvendo e identificar problemas na renderização
imediatamente. E é realmente gratuito.
Mais um novato é o relatório de desempenho da ferramenta SEMrush Site Audit. Neste relatório, você
pode ver a distribuição da velocidade de carregamento nas páginas do seu site, bem como a tendência
média da velocidade de carregamento da página do seu site. Você também pode ver uma discriminação
de cada página pelo número e tamanho dos arquivos JS e CSS que ela contém.
Esses diagramas, juntamente com uma lista detalhada de verificações dos problemas mais comuns que
podem atrasar o seu site, fornecerão uma idéia de como melhorar seu desempenho e garantir velocidade
suficiente da página.
O novo garoto da cidade se chama Lighthouse. É uma ferramenta do Google e foi implementada no
navegador Google Chrome. Ele tem um foco específico na auditoria do desempenho móvel. Faz sentido,
pois o Pagespeed ainda hoje é um fator de classificação. No entanto, o Google anunciou recentemente
que, em meados de 2018, eles usariam seu site para celular como o principal responsável pela medição e
pontuação do desempenho. Portanto, no passado, sua pontuação foi baseada no site de desktop ou
contra ele, isso mudará agora. Agora, eles analisam seu desempenho em dispositivos móveis e o
classificam e classificam de acordo.
Introdução à velocidade da página
O Pagespeed é um fator de classificação, portanto, lembre-se de que é principalmente sobre a rapidez com
que todos são. Eu sou mais lento que o resto? Nesse caso, há um problema.
Além disso, lembre-se de que a otimização e medição de desempenho não é um projeto único; você deve
fazer isso com o tempo. Idealmente, você deseja compará-lo com seus concorrentes para entender o que
está acontecendo no setor e ver como você se sai contra eles. No nível corporativo, existem ferramentas
como o Speedcurve , que podem ajudar significativamente com isso.
Se você deseja começar com uma ferramenta gratuita, também há o Painel de Desempenho no site
sitespeed.io, que pode essencialmente fazer a mesma coisa. É realmente poderoso ver apenas as linhas de
tendência durante uma semana ou um mês e ver como seus concorrentes estão indo ao mesmo tempo.
Qual é a ferramenta gratuita mais funcional para otimização de desempenho?
Qual é a ferramenta gratuita mais funcional para otimização de desempenho?
Webpagetest.org
O Webpagetest.org fornece
muitas métricas diferentes,
informações sobre
compactação, armazenamento
em cache e recomendações
especiais sobre como otimizar
suas imagens.