O que é um Sitemap?
Um sitemap é um arquivo que fornece informações detalhadas sobre as páginas, vídeos e outros arquivos de um site, indicando a relação entre eles. Mecanismos de busca, como o Google, utilizam os sitemaps para rastrear seu site de forma mais eficiente. Com um sitemap, você pode indicar aos rastreadores quais arquivos são mais importantes no seu site, além de fornecer informações valiosas, como a última atualização de uma página, sua frequência de alterações e as versões em idiomas alternativos.
Os sitemaps também podem incluir informações específicas sobre tipos de conteúdo, como vídeos e imagens. Por exemplo:
- Uma entrada de vídeo pode especificar o tempo de execução, a categoria e a classificação etária do vídeo.
- Uma entrada de imagem pode incluir informações como o assunto, o tipo e a licença da imagem.
Eu preciso de um Sitemap?
Mesmo que as páginas do seu site estejam devidamente vinculadas entre si, um sitemap pode melhorar o rastreamento do site, especialmente se ele atender a um dos seguintes critérios:
- O site é muito grande: Em sites grandes, é mais provável que os rastreadores da Web deixem de rastrear algumas páginas novas ou recentemente atualizadas.
- O site possui muitas páginas de conteúdo isoladas: Se as páginas do site não estão bem conectadas entre si, o sitemap garante que essas páginas não sejam ignoradas pelos mecanismos de busca.
- O site é novo e tem poucos links externos: Se o seu site não possui muitos links de outros sites apontando para ele, um sitemap ajuda o Google a descobrir suas páginas.
- O site usa conteúdo rich media, é exibido no Google Notícias ou utiliza anotações específicas: O Google pode usar as informações adicionais dos sitemaps para aprimorar a pesquisa.
Como gerar um Sitemap?
Para gerar um sitemap.xml
, você pode utilizar ferramentas gratuitas, como:
- Screaming Frog SEO Spider: A versão gratuita rastreia até 500 URLs. Para sites maiores, é possível rastrear seções separadamente.
- XML-Sitemaps.com: Gera sitemaps XML para sites com até 500 páginas gratuitamente. Opções pagas estão disponíveis para sites maiores.
- Dynomapper: Gera sitemaps para sites grandes com opções de teste gratuito e planos pagos.
Exemplo de estrutura de um arquivo sitemap.xml gerando pelo Gerador de XML da plataforma
Abaixo, veja um exemplo de estrutura de um arquivo sitemap.xml
, com algumas configurações comuns:
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.sitemaps.org/schemas/sitemap/0.9 http://www.sitemaps.org/schemas/sitemap/0.9/sitemap.xsd">
<url>
<loc>https://www.exemplo.com.br/</loc>
<lastmod>2024-02-20</lastmod>
<priority>1.0</priority>
<changefreq>weekly</changefreq>
</url>
<url>
<loc>https://www.exemplo.com.br/contato/</loc>
<lastmod>2024-02-20</lastmod>
<priority>0.2</priority>
<changefreq>monthly</changefreq>
</url>
<!-- Exemplo de inclusão de URLs dinâmicas geradas com base em categorias de produtos -->
{% set processedCodes = [] %}
{% for product in products %}
{% for category in product.categories %}
{% if category.referenceCode not in processedCodes %}
<url>
<loc>https://www.exemplo.com.br/produto/listar/{{ category.referenceCode }}</loc>
<lastmod>2024-02-20</lastmod>
<priority>0.8</priority>
<changefreq>monthly</changefreq>
</url>
{% set processedCodes = processedCodes|merge([category.referenceCode]) %}
{% endif %}
{% endfor %}
{% endfor %}
<!-- Exemplo de inclusão de URLs dinâmicas de variantes de produtos -->
{% for product in products %}
{% for variant in product.variants %}
<url>
<loc>https://www.exemplo.com.br{{ flexy_ftwo_product_url(variant, shoppingStore ? shoppingStore.referenceCode : null) }}</loc>
<lastmod>2024-02-20</lastmod>
<priority>0.4</priority>
<changefreq>monthly</changefreq>
</url>
{% endfor %}
{% endfor %}
</urlset>
Neste exemplo:
-
<loc>
: Define a URL da página. -
<lastmod>
: Indica a última data de modificação da página. -
<priority>
: Define a prioridade da URL em relação a outras URLs do site (de 0.0 a 1.0). -
<changefreq>
: Sugere aos rastreadores com que frequência o conteúdo da página é atualizado.
Após criar o arquivo, envie-o para o time de soluções da Flexy pelo e-mail suporte@flexy.com.br. Eles incluirão o sitemap nos servidores e informarão sobre a conclusão.
O que é o arquivo Robots.txt?
O arquivo robots.txt é um documento de texto que comunica instruções aos robôs de busca (também conhecidos como "crawlers" ou "spiders"). Esses programas são utilizados pelos mecanismos de busca para rastrear e indexar o conteúdo da web.
Colocado na raiz do site (por exemplo, www.exemplo.com/robots.txt
), o robots.txt
orienta os robôs sobre quais partes do site podem ser rastreadas e indexadas. Embora os robôs possam optar por não seguir essas instruções, o arquivo serve como um guia sobre a intenção do proprietário do site.
Por que usar o arquivo Robots.txt?
A principal função do robots.txt
é controlar o acesso dos robôs de busca ao conteúdo do site, permitindo aos proprietários decidir quais páginas devem ou não ser rastreadas e indexadas.
Exemplo de arquivo Robots.txt
Regra 1
User-agent: Googlebot
Disallow: /nogooglebot/
Regra 2
User-agent: *
Allow: /
Sitemap: http://www.example.com/sitemap.xml
-
Regra 1: Específica para o Googlebot, indicando que ele não deve acessar o diretório
/nogooglebot/
. - Regra 2: Aplica-se a todos os agentes de usuário, permitindo o acesso a todas as partes do site.
Após criar o arquivo, envie-o para o time de soluções da Flexy pelo e-mail suporte@flexy.com.br, que o incluirá nos servidores e confirmará a inclusão.
Este material foi criado para ajudar você a gerar esses dois arquivos cruciais para sua estratégia de SEO. Se precisar de ajuda, entre em contato pelo e-mail suporte@flexy.com.br, e nossa equipe estará à disposição para ajudar rapidamente.
Comentários
0 comentário
Artigo fechado para comentários.