O que é um sitemap?
Os sitemaps são arquivos usados para fornecer informações sobre páginas, vídeos e outros arquivos do site e indicar a relação entre eles. Os mecanismos de pesquisa, como o Google, leem esses arquivos para rastrear seu site de maneira mais inteligente. Os sitemaps informam ao rastreador os arquivos que você considera mais importantes no site, além de fornecer informações valiosas sobre esses arquivos: por exemplo, quando a página foi atualizada pela última vez, com que frequência ela é alterada e as versões em idiomas alternativos dela.
Os sitemaps podem ser usados para fornecer informações sobre tipos específicos de conteúdo nas suas páginas, incluindo vídeos e imagens. Exemplo:
- Uma entrada de vídeo de sitemap pode especificar o tempo de execução, a categoria e a classificação etária de um vídeo.
- Uma entrada de imagem de sitemap pode incluir o assunto ao qual a imagem se refere, o tipo e a licença da imagem.
Eu preciso de um sitemap?
Se as páginas do site estiverem devidamente vinculadas, o normal será os rastreadores da Web (bots de indexação dos mecanismos de busca) conseguirem detectar a maior parte de seu site. Mesmo assim, um sitemap pode melhorar o rastreamento do site, especialmente quando este atende a um dos seguintes critérios:
- O site é muito grande. Como resultado, é mais provável que os rastreadores da Web do Google ignorem o rastreamento de algumas páginas novas ou atualizadas recentemente.
- Seu site tem um grande arquivo de páginas de conteúdo que estão isoladas ou não estão bem vinculadas entre si. Se as páginas do site não fazem referência umas às outras naturalmente, é possível listá-las em um Sitemap para garantir que o Google não ignore algumas das páginas.
- Seu site é novo e tem poucos links externos. O Googlebot e outros rastreadores percorrem a Web seguindo os links de uma página para outra. Como resultado, se nenhum site estiver vinculado a suas páginas, o Google pode não detectá-las.
- Seu site usa conteúdo rich media, é exibido no Google Notícias ou usa anotações compatíveis com outros Sitemaps. O Google pode extrair informações adicionais dos sitemaps para a pesquisa quando necessário.
Fonte: https://support.google.com/webmasters/answer/156184?hl=pt-BR
Para gerar um sitemap.xml, você pode utilizar diversos "geradores" gratuitos, como o Sitemap Generator.
Recomendamos as seguintes configurações:
Atualmente, há outras opções para gerar sitemaps, cobrindo até 500 páginas para indexação.
-
Screaming Frog SEO Spider: A versão gratuita desta ferramenta rastreia até 500 URLs. Para sites maiores, é possível rastrear seções ou partes separadamente. Screaming Frog SEO Spider
-
XML-Sitemaps.com: Este serviço online gera sitemaps XML para sites com até 500 páginas de forma gratuita. Opções pagas estão disponíveis para sites maiores. XML-Sitemaps.com
-
Dynomapper: Outra ferramenta que gera sitemaps para sites com mais de 500 páginas, com opções de teste gratuito e planos pagos para sites maiores.
Após criar o arquivo, envie-o para o time de soluções da Flexy pelo e-mail suporte@flexy.com.br. Eles o incluirão em seus servidores e o informarão sobre a conclusão.
.........................................................................................................................................
O que é e para que serve o robots.txt?
O arquivo robots.txt é um documento de texto utilizado por sites para comunicar instruções aos robôs de busca, também conhecidos como "crawlers" ou "spiders". Esses programas automatizados são empregados por mecanismos de busca para rastrear e indexar o conteúdo da web.
Colocado na raiz do site (por exemplo, www.exemplo.com/robots.txt), o robots.txt fornece diretrizes aos robôs de busca sobre quais partes do site podem ser rastreadas e indexadas. Embora os robôs possam optar por não seguir essas instruções, o arquivo serve como um guia para comunicar a intenção do proprietário do site.
A função principal do robots.txt é controlar o acesso dos robôs de busca ao conteúdo do site, permitindo aos proprietários decidir quais páginas devem ser rastreadas e indexadas e quais devem ser excluídas ou bloqueadas.
Abaixo está um exemplo de arquivo robots.txt simples, com duas regras:
# Regra 1
User-agent: Googlebot
Disallow: /nogooglebot/
# Regra 2
User-agent: *
Allow: /
Sitemap: http://www.example.com/sitemap.xml
A primeira regra é específica para o Googlebot, indicando que ele não deve acessar o diretório /nogooglebot/ e seu conteúdo. A segunda regra se aplica a todos os agentes de usuário, permitindo o acesso a todas as partes do site.
Após criar o arquivo, envie-o para o time de soluções da Flexy pelo e-mail suporte@flexy.com.br, que o incluirá em seus servidores e confirmará a inclusão.
Esse material visa facilitar a criação desses dois arquivos cruciais para sua estratégia de SEO. Se ainda encontrar dificuldades, entre em contato pelo e-mail suporte@flexy.com.br, e nossa equipe terá prazer em ajudar rapidamente.
Comentários
0 comentário
Artigo fechado para comentários.