Ver Mensaje Individual
  #6 (permalink)  
Antiguo 10/05/2008, 05:10
brainstorm
 
Fecha de Ingreso: septiembre-2005
Ubicación: España
Mensajes: 78
Antigüedad: 18 años, 7 meses
Puntos: 0
Re: Robots.txt y páginas duplicadas

A mi me paso un caso parecido al que comentas con paginas duplicadas, y modifique el robots.txt y las que tenia idexadas seguien apareciendo en el buscador (al final del serps) y/o buscandolas con el comando site: y forzando la busqueda pero seguian apareciendo.
Lo que no hacia era enlazar nuevas paginas de la bloqueadas.

Yo te recomendaria que usaras la herramienta para webmaster de google http://www.google.com/webmasters/tools/ y eliminaras las URL duplicadas, pese a lo que pone de 90 dias las elimina en 1 o 2 dias.
Aunque pasados unos dias siempre queda alguna, supongo que porque la coje de diferente servidor y tarda en actualizar.

POSTDATA: Es muy aburrido ir copiando enlace y pegando en la cajita, yo lo tube que hacer unas 1400 veces, menuda metedura de pata pero me volvi un experto.... en copia pega enlace.

Última edición por brainstorm; 10/05/2008 a las 05:30