contato@system-dreams.com
+55 11 5041-6352 / +55 11 4506-3108 / 950.313.118

Dicas para Otimização de Sites
O objetivo principal de um motor de busca não é eliminar as más ligações.

 

Este post tem diversos assuntos. Em primeiro lugar eu estava lendo sobre questões referentes ao Google em uma matéria que saiu em um jornal de Nova York e queria compartilhar a apresentação e também porque muitos usuários estão dizendo que o Google não está mostrando os efeitos das remoções rápido o suficiente para eles. Isso também está afetando outros conjuntos de dados de inteligência e francamente não encontrei nada que pudesse sanar todas as minhas dúvidas.

Nossas informações e dados possui diversas diferenças notáveis. No entanto há alguns desafios interessantes para o mecanismo de busca quando se trata de otimização. A capacidade de rastrear a web que você tem precisa ser escolhida antes de começar um trabalho. Se você é um analista de SEO e precisa  construir a sua base de dados o mais rápido possível, então você naturalmente precisa se concentrar e pesquisar por novas páginas web ou aqueles sites onde você sabia que havia muitos links externos (aquelas que tinham qualidade). Você tem recursos limitados de modo que você tem que fazer escolhas. O problema aqui é que quanto mais você empurra seus esforços para a “descoberta”, menos você empurra seus recursos para “verificação”.

O objetivo principal de um motor de busca não é eliminar as más ligações. É para encontrar conteúdo para que outra parte do algoritmo possa separar e eliminar o bom do ruim e devolver o bom para os usuários. Se no nível de rastreamento – um motor de busca pode descontar grandes quantidades de links ruins por não ter sequer recrawling, talvez não seja da qualidade de méritos do motor de pesquisa como algo que vale a pena revisitar muitas vezes, então isso pode melhorar dramaticamente a eficiência dos recursos e focar nas coisas que importam.

Se você está sendo penalizado pelas coisas ruins, resolva o seu próprio dilema mostrando a qualidade e atualidade do conteúdo do seu site, distinguindo entre os dados frescos (Links de URLs que temos visto dentro de um período de tempo de dois meses) e tudo o mais que remonta a mais de cinco anos. Após 60 dias, se a ligação não está digno de ser visto, não teremos recrawled e ele vai ter desistido do Índice, mas ainda estará no Índice Histórico. Uma maneira Google de tentar resolver é dando-lhe “buscar como o Googlebot” no WebmasterTools,  assim você pode efetivamente dizer ao Google quando um site mudou. Outra maneira é pedir que você use comandos de cache .

Se você tiver removido links e precisa deles para ficar atualizado, talvez haja a necessidade de adicionar um passo em seus processos de limpeza, solicitar ao proprietário de outros sites, não só para remover links problemáticos, mas também para, em seguida, pedir-lhes para “buscar a página como Googlebot “para ajudar a atualizar o Google em seu fim mais rápido.

Então, de volta à questão da alocação de recursos para grandes teias de links. Faça isso através de seu controlador de rastreamento, o Controlador Crawler nunca vai realmente acabar de rastrear, por isso temos de manter as regras de engajamento para o controlador que mantém um senso de equilíbrio. Precisamos sempre olhar para o novo conteúdo, mas também respeitar o conteúdo antigo pode mudar e manter um olho sobre as páginas mais importantes e talvez revisitar estes com mais freqüência do que outros. WebmastersTools pode ajudar tremendamente qualquer rastreador ser mais eficiente, talvez não possa evitar conteúdo duplicado que obriga o recrawl.

 


 

Escreva um comentário:

 

Comentários cadastrados:

 

Nenhum comentário cadastrado

CADASTRE-SE
RECEBA CONTEÚDOS EXCLUSIVOS