|
Comunidade uCoz em Português Desenvolvedores uCoz & uKit Promoção de Sites Para que serve e como usar o "robots.txt" |
Para que serve e como usar o "robots.txt" |
Site com arquivos robots.txt padrão são indexados da melhor maneira possível. Nós o ajustamos de tal forma que apenas as páginas com conteúdos são indexados, e não todas as páginas existentes (por exemplo, página de login ou registro). Portanto, sites uCoz são indexados melhor e obtêm maior prioridade em comparação com outros sites onde todas as páginas desnecessárias são indexadas. Recomendamos a não substituição do arquivo robots.txt padrão. Segue exemplo de como o arquivo robots.txt padrão parece: User-agent: * Disallow: /a/ Disallow: /stat/ Disallow: /index/1 Disallow: /index/2 Disallow: /index/3 Disallow: /index/5 Disallow: /index/7 Disallow: /index/8 Disallow: /index/9 Disallow: /main/ Disallow: /admin/ Disallow: /secure/ Disallow: /informer/ Disallow: /mchat Há um período de "quarentena" para cada novo site. Em caso de bom tráfego, a quarentena vai durar até 2 semanas. Para os sites com tráfego baixo cerca de 30 dias. Se você pagar por qualquer um dos serviços adicionais, a quarentena termina imediatamente após o pagamento. O robots.txt é um arquivo de sistema. Se você ainda assim quer substituí-lo por conta própria, crie um arquivo de texto usando o bloco de notas ou qualquer outro editor de texto com o nome "robots.txt". Em seguida, envie o arquivo para a pasta raiz do seu site via Gerenciador de Arquivos ou FTP. O endereço do arquivo robots.txt é http://seu_endereco_site/robots.txt Aparência do arquivo robots.txt durante o período de quarentena: User-agent: * Disallow: / Informativos não são indexados porque eles exibem informações que já existem. Como regra, essas informações já são indexadas nas páginas correspondentes. Tudo sobre robots.txt (em Inglês) Acidentalmente corrompi o robots.txt. O que devo fazer? Excluí-lo. Nosso arquivo robots.txt será adicionado automaticamente (o sistema verifica se o usuário tem, e se não - adiciona de volta o arquivo padrão). Sites com baixo tráfego ficão em quarentena durante um mês. Como pode um site ter um bom tráfego se ele é desconhecido pelos mecanismos de busca? Este tempo é necessário para você tornar o seu site mais interessante, adicionar conteúdo e design exclusivo. Em seguida, os mecanismos de busca irão indexar bem o seu site e não irão ignorá-lo porque ele está vazio. É possível encurtar o período de quarentena para um site com baixo tráfego? Sim, mas você precisa pagar por um dos serviços adicionais. Se eu anexar um domínio para o meu site que está na quarentena, a quarentena será terminada? Não. Anexar domínio não influencia o período de quarentena. Posso registrar um site nos motores de busca se a quarentena não acabou ainda? Não, o site não será aceito. O arquivo robots.txt será substituído automaticamente após a quarentena acabar? Ou devo atualizá-lo manualmente? Ele será atualizado automaticamente. É possível permitir a indexação de álbuns de fotos no robots.txt? Muitas pessoas buscam por imagens. Dificilmente vai gerar algum resultado, mas você pode, se desejar. Como posso proibir a indexação de sites espelhados? Leia sobre sites espelhados. Você deve escrever a sua hospedagem no robots.txt, e então ele será o principal. É possível excluir o robots.txt padrão? Você não pode excluí-lo. Ele é um arquivo de sistema. Mas você pode adicionar seus próprios. No entando, como está escrito acima é melhor não fazer isso. Durante a quarentena é impossível adicionar seu próprio arquivo robots.txt. O que é "UNetBot"? O robô do uCoz? Sim. O que devo fazer para proibir a indexação das páginas a seguir? _http :/ / site.ucoz.com/index/0-4 _http :/ / site.ucoz.com/index/0-5 Adicione o seguinte texto para o arquivo robots.txt: /index/0-4 /index/0-5 Proibi a indexação de alguns links, por meio de robots.txt, mas eles ainda são exibidos. Por quê? Por meio do robots.txt você pode proibir a indexação de páginas e não de links. Quero fazer algumas mudanças no meu arquivo robots.txt. Qual é o processo para isso? Você deve fazer o download para o seu computador e fazer o upload de volta via Gerenciador de Arquivos ou cliente de FTP. |
| |||
| |||