Ver Mensaje Individual
  #5 (permalink)  
Antiguo 16/07/2010, 07:06
fumondj
 
Fecha de Ingreso: octubre-2006
Mensajes: 471
Antigüedad: 17 años, 6 meses
Puntos: 1
Respuesta: Problema para eliminar urls viejas

Cita:
Iniciado por mabel-rich Ver Mensaje
Por supuesto que lo he leído, tal y como lo expresas, lo que das a entender es que lo único que has hecho es modificar el robots.txt para bloquear desde este archivo la indexación de las páginas, aunque luego Webmasters de Google te deniegue las solicitudes.

Una cosa es el robots.txt y otra bien distinta enviar solicitudes para eliminar las páginas directamente desde la Herramienta de Webmasters (aunque ambas sirven para impedir que Google indexe tales páginas, o bien las elimine en caso de que ya se hayan indexado anteriormente), pudiendo o bien eliminarlas de los resultados de búsqueda, sólo la caché, o ambas opciones juntas.

En caso de que se te deniegue la solicitud, puede deberse a varios motivos: entre ellos, que las páginas que desees eliminar no devuelvan un error, que no hayas incluído en ellas la etiqueta "noindex", o que no las hayas bloqueado a través del robots.txt

A veces hay que leer varias veces el mensaje para tratar de saber si, lo que deseamos explicar, lo hemos dicho bien o no para no causar líos.
Es practicamente lo mismo, ya que para hacer una solicitud de eliminar la url te pide que devuelvas error, etiqueta no index o a traves de robots.txt que es como lo estoy intentando hacer yo, pero como he dicho al realizar la solicitud me la denega, y si que la tengo bloqueada en el robots.txt.

Saludos.