Foros del Web » Estrategias Digitales y Negocios Online » SEO »

Robots.txt y páginas duplicadas

Estas en el tema de Robots.txt y páginas duplicadas en el foro de SEO en Foros del Web. ¿Google puede desindexar páginas existentes (accesibles) si le pido que lo haga en el Robots.txt? Tengo un foro en phpBB con un mod rewrite que ...
  #1 (permalink)  
Antiguo 12/07/2007, 16:54
 
Fecha de Ingreso: junio-2007
Mensajes: 8
Antigüedad: 16 años, 10 meses
Puntos: 0
Pregunta Robots.txt y páginas duplicadas

¿Google puede desindexar páginas existentes (accesibles) si le pido que lo haga en el Robots.txt?

Tengo un foro en phpBB con un mod rewrite que de una página me crea dos o más a la vista de los buscadores. Ej:

titulodeltopic-vt8916.html

es la misma que:

image-vp25817.html#25817

Google tiene idexados alrededor de 200 páginas que empiezan con "image-vp". Para que no indexe más yo haría un
Código:
Disallow: /image-vp*.html
en el robots.txt.

Pero la pregunta es: ¿me va a desindexar los que ya indexó? ¿aún cuando éstos sigan existiendo y sigan siendo accesibles?
Muchisimas gracias.
  #2 (permalink)  
Antiguo 12/07/2007, 19:21
Avatar de Daniel Ulczyk
Super Moderador
 
Fecha de Ingreso: febrero-2005
Ubicación: Buenos Aires
Mensajes: 9.263
Antigüedad: 19 años, 2 meses
Puntos: 2114
Re: Robots.txt y páginas duplicadas

Cita:
¿me va a desindexar los que ya indexó? ¿aún cuando éstos sigan existiendo y sigan siendo accesibles?
Seguramente. Cuando vuelva a a pasar el bot, ignorará todo el contenido de la carpeta. Y deshabilitará el índice para la misma.
Espero que alguien pueda aportar algo más con este tema.
__________________
—Somos lo que hacemos repetidamente. La excelencia, entonces, no es un acto sino un hábito. (Aristóteles dixit)
  #3 (permalink)  
Antiguo 16/07/2007, 18:46
 
Fecha de Ingreso: febrero-2003
Mensajes: 795
Antigüedad: 21 años, 2 meses
Puntos: 2
Re: Robots.txt y páginas duplicadas

Si, si lo va a desindexar, pero no lo hace tan rápido a veces, puede tardar algunas semanas.

Aunque yo he tenido casos de clientes que aún con robots.txt aún siguen indexando páginas.
__________________
Carlo Rodríguez
florerias en lima
  #4 (permalink)  
Antiguo 08/05/2008, 14:05
 
Fecha de Ingreso: abril-2005
Mensajes: 247
Antigüedad: 19 años
Puntos: 1
Re: Robots.txt y páginas duplicadas

Tengo un caso parecido aprovecho el post.

Que pasara si dejo los contenidos duplicados, sin quitar en el robot.txt, ya que un dominio A tengo links que se repetiten el el otro dominio B.
  #5 (permalink)  
Antiguo 09/05/2008, 10:22
 
Fecha de Ingreso: febrero-2003
Mensajes: 795
Antigüedad: 21 años, 2 meses
Puntos: 2
Re: Robots.txt y páginas duplicadas

El buscador puede pensar que lo quieres engañar y penalizarte
__________________
Carlo Rodríguez
florerias en lima
  #6 (permalink)  
Antiguo 10/05/2008, 05:10
 
Fecha de Ingreso: septiembre-2005
Ubicación: España
Mensajes: 78
Antigüedad: 18 años, 7 meses
Puntos: 0
Re: Robots.txt y páginas duplicadas

A mi me paso un caso parecido al que comentas con paginas duplicadas, y modifique el robots.txt y las que tenia idexadas seguien apareciendo en el buscador (al final del serps) y/o buscandolas con el comando site: y forzando la busqueda pero seguian apareciendo.
Lo que no hacia era enlazar nuevas paginas de la bloqueadas.

Yo te recomendaria que usaras la herramienta para webmaster de google http://www.google.com/webmasters/tools/ y eliminaras las URL duplicadas, pese a lo que pone de 90 dias las elimina en 1 o 2 dias.
Aunque pasados unos dias siempre queda alguna, supongo que porque la coje de diferente servidor y tarda en actualizar.

POSTDATA: Es muy aburrido ir copiando enlace y pegando en la cajita, yo lo tube que hacer unas 1400 veces, menuda metedura de pata pero me volvi un experto.... en copia pega enlace.

Última edición por brainstorm; 10/05/2008 a las 05:30
Atención: Estás leyendo un tema que no tiene actividad desde hace más de 6 MESES, te recomendamos abrir un Nuevo tema en lugar de responder al actual.
Respuesta




La zona horaria es GMT -6. Ahora son las 16:37.