Este site usa cookies e tecnologias afins que nos ajudam a oferecer uma melhor experiência. Ao clicar no botão "Aceitar" ou continuar sua navegação você concorda com o uso de cookies.

Aceitar

O que é Exclusão de Robôs

Escrito por em agosto 14, 2023
Junte-se a centenas de experts em SEO

Entre para nossa lista e receba conteúdos exclusivos e com prioridade

O que é Exclusão de Robôs?

A exclusão de robôs, também conhecida como exclusão de rastreamento ou exclusão de indexação, é uma técnica utilizada para controlar quais partes de um site são acessíveis e indexáveis pelos motores de busca. Ela permite que os proprietários de sites determinem quais páginas ou diretórios devem ser excluídos dos resultados de pesquisa, evitando que sejam indexados pelos robôs dos motores de busca.

Por que a Exclusão de Robôs é Importante?

A exclusão de robôs é importante porque permite que os proprietários de sites tenham controle sobre quais páginas são exibidas nos resultados de pesquisa. Isso pode ser útil em várias situações, como quando há conteúdo duplicado no site, quando há páginas que não são relevantes para os usuários ou quando há páginas que não devem ser indexadas por motivos de segurança ou privacidade.

Como Funciona a Exclusão de Robôs?

A exclusão de robôs é geralmente feita por meio do arquivo robots.txt, que é um arquivo de texto localizado na raiz do site. Esse arquivo contém instruções para os robôs dos motores de busca, informando quais páginas ou diretórios devem ser excluídos da indexação. Os robôs dos motores de busca verificam o arquivo robots.txt antes de rastrear e indexar um site, seguindo as instruções fornecidas.

Como Criar um Arquivo Robots.txt?

Para criar um arquivo robots.txt, basta criar um novo arquivo de texto em um editor de texto simples, como o Bloco de Notas, e salvá-lo com o nome “robots.txt”. Em seguida, é necessário fazer upload desse arquivo para a raiz do site, utilizando um programa de FTP ou o painel de controle do servidor. O arquivo robots.txt deve seguir uma sintaxe específica, com instruções para cada diretório ou página que se deseja excluir da indexação.

Quais São as Instruções Mais Comuns no Arquivo Robots.txt?

No arquivo robots.txt, as instruções mais comuns são “Disallow” e “Allow”. A instrução “Disallow” é utilizada para indicar que determinado diretório ou página não deve ser rastreado ou indexado pelos robôs dos motores de busca. Já a instrução “Allow” é utilizada para indicar que determinado diretório ou página deve ser rastreado e indexado, mesmo que haja uma instrução “Disallow” para o diretório pai.

Exemplos de Uso do Arquivo Robots.txt

Um exemplo de uso do arquivo robots.txt é quando se deseja excluir um diretório inteiro da indexação. Nesse caso, basta adicionar a seguinte instrução no arquivo robots.txt: “Disallow: /diretorio/”. Isso fará com que todos os arquivos e subdiretórios dentro do diretório sejam excluídos da indexação.

Outro exemplo é quando se deseja excluir uma página específica da indexação. Nesse caso, basta adicionar a seguinte instrução no arquivo robots.txt: “Disallow: /diretorio/pagina.html”. Isso fará com que apenas a página especificada seja excluída da indexação, mantendo os demais arquivos e subdiretórios do diretório indexáveis.

Outras Formas de Exclusão de Robôs

Além do arquivo robots.txt, existem outras formas de exclusão de robôs. Uma delas é a meta tag “noindex”, que pode ser adicionada ao código HTML de uma página específica para indicar que ela não deve ser indexada pelos motores de busca. Essa meta tag é especialmente útil quando se deseja excluir uma única página da indexação, sem afetar os demais arquivos e diretórios do site.

Outra forma de exclusão de robôs é o uso do cabeçalho HTTP “X-Robots-Tag”. Esse cabeçalho pode ser adicionado ao servidor para instruir os robôs dos motores de busca sobre quais páginas ou diretórios devem ser excluídos da indexação. Assim como a meta tag “noindex”, o cabeçalho HTTP “X-Robots-Tag” é útil quando se deseja excluir páginas específicas da indexação, sem afetar o restante do site.

Conclusão

A exclusão de robôs é uma técnica importante para controlar quais partes de um site são acessíveis e indexáveis pelos motores de busca. Ela permite que os proprietários de sites determinem quais páginas ou diretórios devem ser excluídos dos resultados de pesquisa, evitando que sejam indexados pelos robôs dos motores de busca. A exclusão de robôs pode ser feita por meio do arquivo robots.txt, da meta tag “noindex” ou do cabeçalho HTTP “X-Robots-Tag”. Cada uma dessas formas de exclusão tem suas vantagens e pode ser utilizada de acordo com as necessidades específicas de cada site.