Tema: Robots.txt
Ver Mensaje Individual
  #3 (permalink)  
Antiguo 04/01/2009, 21:44
Avatar de Adsl5mb
Adsl5mb
 
Fecha de Ingreso: junio-2007
Mensajes: 1.589
Antigüedad: 16 años, 10 meses
Puntos: 34
Respuesta: Robots.txt

Sí, creo que es importante bloquear las páginas duplicadas.

Si esas páginas que estás bloqueando son exactamente duplicadas de otras que tienen los mismos enlaces entonces no va a perjudicar en nada la indexación ya que los va a conseguir desde el otro enlace.

Igualmente es recomendable tener un Sitemap para que Google pueda rastrear todas tus páginas con mayor facilidad.
__________________
Foro: Yelsoft
Blog: Milutilidades