Ver Mensaje Individual
  #4 (permalink)  
Antiguo 16/07/2010, 05:46
mabel-rich
 
Fecha de Ingreso: enero-2009
Mensajes: 198
Antigüedad: 15 años, 3 meses
Puntos: 13
Respuesta: Problema para eliminar urls viejas

Cita:
Iniciado por fumondj Ver Mensaje

he probado bloquear las url con el robots.txt desde herramientas de webmaster de google pero me denega las solicitudes
Por supuesto que lo he leído, tal y como lo expresas, lo que das a entender es que lo único que has hecho es modificar el robots.txt para bloquear desde este archivo la indexación de las páginas, aunque luego Webmasters de Google te deniegue las solicitudes.

Una cosa es el robots.txt y otra bien distinta enviar solicitudes para eliminar las páginas directamente desde la Herramienta de Webmasters (aunque ambas sirven para impedir que Google indexe tales páginas, o bien las elimine en caso de que ya se hayan indexado anteriormente), pudiendo o bien eliminarlas de los resultados de búsqueda, sólo la caché, o ambas opciones juntas.

En caso de que se te deniegue la solicitud, puede deberse a varios motivos: entre ellos, que las páginas que desees eliminar no devuelvan un error, que no hayas incluído en ellas la etiqueta "noindex", o que no las hayas bloqueado a través del robots.txt

A veces hay que leer varias veces el mensaje para tratar de saber si, lo que deseamos explicar, lo hemos dicho bien o no para no causar líos.