Ver Mensaje Individual
  #1 (permalink)  
Antiguo 12/07/2007, 16:54
GMG76
 
Fecha de Ingreso: junio-2007
Mensajes: 8
Antigüedad: 16 años, 11 meses
Puntos: 0
Pregunta Robots.txt y páginas duplicadas

¿Google puede desindexar páginas existentes (accesibles) si le pido que lo haga en el Robots.txt?

Tengo un foro en phpBB con un mod rewrite que de una página me crea dos o más a la vista de los buscadores. Ej:

titulodeltopic-vt8916.html

es la misma que:

image-vp25817.html#25817

Google tiene idexados alrededor de 200 páginas que empiezan con "image-vp". Para que no indexe más yo haría un
Código:
Disallow: /image-vp*.html
en el robots.txt.

Pero la pregunta es: ¿me va a desindexar los que ya indexó? ¿aún cuando éstos sigan existiendo y sigan siendo accesibles?
Muchisimas gracias.